lunes, 31 de marzo de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (V)

El rasgo que llama la atención de esta ecuación es que b12 = 0.2448 no sólo es positivo (una curva de Phillips de pendiente positiva?) sino que es estadísticamente no significativo. Pero, de (7.6.2) se observa que β2 = -1.3925 no solamente tiene el signo correcto, a priori, sino que como se mostrará en el capitulo 8, es estadísticamente significativo. Cómo es esto posible? La respuesta se encuentra en el término de efecto indirecto o en el facto de sesgo, β3b32, dado en (7.74).

De (7.6.2) se sabe que β3 = 1.4700.Para obtener b32, se efectua la regresión (7.7.3), encontrando los siguientes resultados.

domingo, 30 de marzo de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (IV)

En términos del ejemplo, el efecto bruto de una unidad de cambio en la tasa de desempleo sobre la tasa de inflación observada es igual a su influencia directa (es decir, manteniendo constante la influencia de la tasa de inflación esperada) más el efecto indirecto como resultado del efecto que ésta (es decir, la tasa de desempleo) tenga sobre la tasa esperada de inflación (=b32), la cual de por sí tiene algún efecto directo (=β3) sobre la tasa de inflación observada. Todo esto puede verse más claramente en la figura 7.3; los números que allí se muestran se relacionan con el ejemplo ilustrativo que se explica en breve.

Hasta aquí la teoría. Considérese nuevamente el ejemplo de la curva de Phillips a manera de ilustración.

Utilizando la información dada en la tabla 7.1, se estima (7.7.1) de la siguiente forma:

Yt = 6.1272 + 0.2448X2t
         (4.2853) (0.6304)
     t=(1.4298) (0.3885)                   r² =0.0135

sábado, 29 de marzo de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (III)

Como lo indica la ecuación (7.7.4), siempre que β3b32 sea diferente de cero, b12será un estimador sesgado de β2. Si β3b32 es positivo, b12, en promedio, sobreestimará a β2 (por qué), es decir b12 tiene un sesgo hacia arriba y el β3b32 es negativo, b12, en promedio, subestimará a β2 (Por qué), es decir es sesgado hacia abajo.

Qué significa realmente todo esto? Como lo muestra (7.7.2), el coeficiente de regresión simple b12 no solamente mide la influencia "directa" o "neta" de Z2 sobre Y (es decir, manteniendo la influencia de X3 constante), sino también la influencia directa o inducida sobre Y a través de su efecto sobre la variable omitida X3. En resumen, b12 mide el efecto "bruto" (directo e indirecto) de Z2 sobre Y, mientras que β2 mide solamente el efecto directo o neto de X2 sobre Y, puesto que la influencia de X3 se mantiene constante cuando estimamos la regresión múltiple (7.6.1), como lo hicimos en (7.6.2). En palabras, tenemos entonces


Efecto bruto de X2 sobre Y(=b12)
= efecto directo de X2 sobre Y(=β2)
+efecto indirecto de X2 sobre Y(=βb32) (7.7.5)


viernes, 28 de marzo de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (II)

Puesto que (7.6.1) es el "verdadero" modelo (7.7.1) constituirá un error de especificación; aquí, el error consiste en omitir del modelo la variable X3, es decir, la tasa esperada de la inflación.

Sabemos que el β2 de la regresión múltiple (7.6.1) es un estimador insesgado del verdadero β2, es decir, E(β2)= β2. (Por qué?) Será que b12, el coeficiente de regresión simple en la regresión de Y solamente sobre X2 también constituye un estimador insegado de β2? Es decir, será E(b12) = β2? (Si este caso es el caso b12 = β2). En términos del ejemplo, será el coeficiente de la variable tasa de desempleo en (7.7.1) un estimador insesgado de su verdadero impacto sobre la tasa de inflación observada, sabiendo que se ha omitido del análisis a X3, la tasa de inflación esperada? La respuesta en general es que b12 no será un estimador insesgado de β2. También la var(b12) puede ser un estimador sesgado de la Var(β2). De hecho, puede probarse que (véase el apéndice 7a, sección 7A.5).

b12 = β2 + β3b32 + término de error (7.7.2)

donde b32 es el coeficiente de la pendiente en la regresión de X3 sobre X2, a saber,

X3t = b2 + b32X2t + û2t

donde û2 es el término residual. Obsérvese que (7.7.3) es simplemente la regresión de la variable omitida X3 sobre X2.

De (7.7.2) puede verificarse fácilmente que

E(b12) = β2 + β3b32

jueves, 27 de marzo de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (I)

El supuesto (7.1.6) del modelo clásico de regresión lineal plantea que el modelo de regresión utilizado en el análisis está correctamente especificado, es decir, que no hay sesgo o error de especificación (veánse algunos comentarios introductorios en el capítulo 3). Aun cuando el tema del análisis de especificación será analizado con más detalle en el capítulo 13, eje ejemplo ilustrativo presentado en la sección anterior da una oportunidad no sólo para entender la importancia del supuesto (7.1.6) sino también para aclarar de manera adicional el significado del coeficiente de regresión parcial y presentar una introducción formal al tema del sesgo de especificación.

Supóngase que (7.6.1) es el modelo "verdadero" que explica el comportamiento de la tasa de inflación observada en términos de la tasa de desempleo y de la tasa esperada de inflación. Pero piénsese que alguien persiste en ajustar el siguiente modelo de regresión con dos variables (la curva de Phillips original)

Yt= b1 + b12X2t + û1t

donde Yt = inflación observada (%) en el tiempo t, X2t = tasa de desempleo (%) en el tiempo t y û1 =los residuos. El coeficiente de la pendiente b12 nos da el efecto de un cambio unitario en la tasa de desempleo sobre la tasa promedio de inflación observada.


miércoles, 26 de marzo de 2014

Ejemplo 7.1: La curva de Phillips ampliada con expectativas para los Estados Unidos, 1970-1982 (II)

De acuerdo con la teoría macroeconómica, se espera que β2 sea negativo (Por qué?) y que β3 sea positivo (puede entenderse el razonamiento?); de hecho, la teoría llevaría a pensar que β3 =1. Como prueba de este modelo, se obtuvo la información que aparece en la tabla 7.1. Con base en esta información, la aplicación del método MCO dió los siguientes resultados.




donde las cifras en parántesis son los errores estándar estimados. La interpretación de esta regresión es la siguiente. Su durante el período muestral, X2 y X3 hubiesen sido cero, la tasa promedio de inflación observada habría estado cercana al 7.19%. Pero como se observó en diversas ocasiones, esta interpretación del intercepto es puramente mecánica. Con mucha frecuencia, no tiene significado físico o económico. El coeficiente de regresión parcial de -1.3925 significa que al mantener constante X3 (la tasa de inflación esperada), la tasa de inflación observada en promedio aumentó (se redujo) en cerca de 1.4% por cada unidad (en este caso, un punto porcentual) de desminución (aumento) en la tasa de desempleo durante el período 1970-1982. De igual forma, al mantenerla tasa de desempleo constante, el valor del coeficiente de 1.4700 implica que durante el mismo período de tiempo la tasa de inflación observada en promedio, aumentó en cerca de 1.47% por cada punto porcentual de incremento en la tasa de inflación anticipada o esperada. El valor R² de 0.88 indica que las dos variables explicativas, en conjunto, son las causa de cerca del 88% de la variación en la tasa de inflación observada, una proporción más bien alta de poder explicativo puesto que R² puede ser como máximo uno.


En términos de expectativas, previas, las dos variables explicativas tienen los signos esperados. Es el coeficiente de la variable de inflación esperada estadísticamente igual a uno? Se responderá a esta pregunta en el capítulo 8.

martes, 25 de marzo de 2014

lunes, 24 de marzo de 2014

El coeficiente de determinación múltiple R² y el coeficiente de correlación múltiple R (III)

Puesto que las cantidades consideradas en (7.5.5) generalmente son calculadas computacionalmente, el R² puede ser calculado en forma fácil. Obsérvese que el R², al igual que el r², se encuentra entre 0 y 1. Si es 1, la línea de regresión ajustada explica el 100% de la variación en Y. Por otra parte, si es 0, el modelo no explica parte alguna de la variación en Y. Sin embargo, generalmente el R² se encuentra entre estos dos valores extremos. Se dice que el ajuste del modelo es "mejor" entre más cerca esté el R² de 1.

Recuérdese que, en el caso de dos variables, se definió la medida de r como el coeficiente de correlación y se indicó que éste mide el grado de asociación (lineal) entre las dos variables. El análogo de r para tres o más variables es el coeficiente de correlación múltiple, denotado por R, el cual es una medida del grado de asociación entre Y y todas las variables explicativas conjuntamente. Aun cuando r puede ser positivo o negativo, R siempre se considera positivo. En la práctica, sin embargo R tiene poca importancia. La medida de mayor significado es R².

Antes de continuar, se establece la siguiente relación entre R² y la varianza de un coeficiente de regresión parcial en el modelo de regresión múltiple con k variables dado en (7.4.20).



domingo, 23 de marzo de 2014

El coeficiente de determinación múltiple R² y el coeficiente de correlación múltiple R (II)

En palabras, la ecuación (7.5.3) afirma que la suma total de cuadrado (STC) es igual a la suma explicada de cuadrados (SEC) + la suma de residuales al cuadrado (SRC). Ahora, sustituyendo Σûi² por (7.4.19), se obtiene

sábado, 22 de marzo de 2014

El coeficiente de determinación múltiple R² y el coeficiente de correlación múltiple R (I)

En el caso de dos variables se vio que r², definido en (3.5.5), mide la bondad de ajuste de la ecuación de regresión; es decir, da la proporción o porcentaje de la variación total en la variable dependiente Y explicada por la variable explicativa X. Esta notación de r² puede extenderse fácilmente a los modelos de regresión que contiene más de dos variables. Así, en el modelo de tres variables nos gustaría conocer la proporción de la variación en Y explicada por las variables X2 y X3 conjuntamente. La medida que da esta información es conocida como el coeficiente de determinación múltiple y se denota por R²; conceptualmente se asemeja a r².

Para obtener el R², se puede seguir el procedimiento de obtención del r² descrito en la sección 3.5. Recúerdese que

viernes, 21 de marzo de 2014

Estimadores de máxima verosimilitud

En el capítulo 4 se observó que bajo el supuesto de que ui, las perturbaciones poblacionales, estén normalmente distribuidas con media cero y varianza σ² constante, los estimadores de máxima verosimilitud (MV) y los estimadores MCO de los coeficientes de regresión del modelo de dos variables son idénticos. Esta igualdad se extiende a modelos que contengan cualquier número de variables. Sin embargo, esto no es cierto para el estimador de σ². Puede demostrarse que el estimador MV de σ² es Σûi²/n sin importar el número de variables en el modelo, mientras que el estimador MCO de σ² es Σûi²/(n-2) en el caso de dos variables, Σûi²/(n-3) en el caso de tres variables y Σûi²/(n-k) en el caso del modelo de k variables (7.4.20). En resumen, el estimador MCO de σ² tiene en cuenta el número de grados de libertad, mientras que el estimador MV no lo hace. Por supuesto, si n es grande, los estimadores MV y MCO de σ² tendrá a estar cerca uno de otro. (Por qué?)

jueves, 20 de marzo de 2014

Propiedades de los estimadores MCO (VI)

8. Dados los supuestos del modelo clásico de regresión lineal enunciados en la sección 7.1,, se puede demostrar que los estimadores MCO de los coeficientes de regresión parcial no solamente son lineales e insesgados, sino que también tienen mínima varianza dentro la clase de todos los estimadores lineales insesgados. En resumen, son MELI: Dicho de otra forma, ellos satisfacen el teorema de Gauss-Markov. (La prueba es similar al caso de dos variables demostrado en el apéndice 3A, sección 3A.6 y será presentado en forma más compacta utilizando notación matricial en el capítulo 9).

miércoles, 19 de marzo de 2014

Propiedades de los estimadores MCO (V)

7. También es claro de (7.4.12) y (7.4.15) que para valores dados r23 y Σx²2i o Σx²3i, las varianzas de los estimadores MCO son directamente proporcionales a σ², es decir, aumentan a medida que σ² aumenta. En forma similar, para valores dados de σ² y r23 la varianza de β2 es inversamente proporcional a Σx²2i, es decir, entre mayor sea la variación de los valores muestrales de X2, menor será la varianza de β2 y, por consiguiente β2 puede ser estimada en forma más precisa. Una afirmación similar puede hacerse con respecto a la varianza de β3.


martes, 18 de marzo de 2014

Propiedades de los estimadores MCO (IV)

6. De (7.4.12) y (7.4.15) es evidente que a medida que r23, el coeficiente de correlación entre X2 y X3, aumenta hacia 1, las varianzas de β2 y β3 aumenta para los valores de dados de σ² y Σx²2i o Σx²3i En el límite, cuando r23 = 1 (es decir, colinealidad perfecta), estas varianzas se hacen infinitas. Las implicaciones de esto serán analizadas a fondo en el capítulo 10, pero intuitivamente el lector puede ver que a medida que r23 aumenta, resultará cada vez más difícil saber cuáles son los valores verdaderos de β2 y β3. [Se verán más detalles en el siguiente capítulo, pero refiérase a la ecuación (7.1.10).]

lunes, 17 de marzo de 2014

Propiedades de los estimadores MCO (III)

3. Σûi = û = 0, lo cual puede verificarse de (7.4.24), [Guía: Súmense los valores muestrales a ambos lados de (7.4.24)].

4. Los residuos ûi no están correlacionados con X2i y X3i es decir, ΣûiX2i = ΣûiX3i =0

5. Los residuos ûi no están correlacionados con Yi, es decir ΣûiYi =0. Por qué? [Guía multipliquese a ambos lados (7.4.23) por ûi y súmense sobre los valores muestrales].

domingo, 16 de marzo de 2014

Propiedades de los estimadores MCO (II)

2. El valor medio de Yi estimado (=Yi) es igual al valor medio de Yi observado, lo cual es fácil de demostrar:

donde, como es usual, las letras minúsculas indican los valores de las variables expresadas como desviaciones de sus medias respectivas.


sábado, 15 de marzo de 2014

Propiedades de los estimadores MCO (I)

Las propiedades de los estimadores MCO del modelo de regresión múltiples son similares a aquellas del modelo con dos variables. Específicamente:

  1. La línea de regresión de tres variables (superficie) pasa través de las medias de Y, X2 y X3, lo cual se hace evidente en (7.4.3) [comparable ecuación (3.1.7) del modelo con dos variables]. Esta propiedad generalmente se mantiene. Así en el modelo de regresión lineal con k variables [un regresado y (k-1) regresores]

viernes, 14 de marzo de 2014

Varianzas y errores estándar de los estimadores MCO (II)

En todas estas fórmulas σ² es la varianza (homoscedástica) plobacional de las perturbaciones ui.

Siguiendo el argumento del apéndice 3A, sección 3A.5, el lector puede verificar que un estimador insesgado de σ² está dado por:

jueves, 13 de marzo de 2014

Varianzas y errores estándar de los estimadores MCO (I)

Habiendo obtenido los estimadores MCO de los coeficientes de regresión parcial, se puede derivar las varianzas y los errores estándar de estos estimadores en la forma indicada en el apéndice 3A.3. Igual que en el caso de dos variables, se necesitan los errores estándar para dos fines principales: establecer intervalos de confianza y probar hipótesis estadísticas. Las fórmulas relevantes son las siguientes:


miércoles, 12 de marzo de 2014

Estimadores MCO (II)

El procedimiento más directo para obtener estimadores que minimizarán (7.4.2) es diferenciarla con respecto de las incógnitas, igualar a cero las expresiones resultantes y resolverlas simultáneamente. Como se muestra en el Apendice, de este procedimiento se obtienen las siguientes ecuaciones normales [comparables con las ecuaciones (3.1.4) y (3.1.5)]
que nos dan los estimadores MCO de los coeficientes de regresión parcial poblacionales, β2 y β3 respectivamente.

A propósito, obsérvese lo siguiente: (1) Las ecuaciones (7.4.7) y (7.4.8) son simétricas por naturaleza porque una puede ser obtenida de la otra mediante el cambio de papeles de X2 y X3; (2)  los denominadores en estas dos ocasiones son idétnticos; y (3)  el caso de tres variables es una extensión natural del caso de dos variables.

martes, 11 de marzo de 2014

Estimadores MCO (I)

Para encontrar los estimadores MCO, se escribe primero la función de regresión muestral (FRM)correspondiente a la FRP de (7.1.1) de la siguiente manera:

donde se obtiene la expresión SRC por manipulación algebraica simple de (7.4.1)

lunes, 10 de marzo de 2014

Estimación MCO y MV de los coeficientes de regresión parcial

Para estimar los parámetros del modelo de regresión con tres variables (7.1.1), se considerará primero el método de mínimos cuadrados ordinarios (MCO), introducido en el capítulo 3 y luego se considerará brevemente el método de máxima verosimilitud (MV) estudiada en el capítulo 4.

domingo, 9 de marzo de 2014

Significado de los coeficientes de regresión parcial (IV)

Etapa III

Por consiguiente, si ahora se procede a efectuar la regresión û1i, sobre û2i de la siguiente forma,

donde û3i es también el término residual de la muestra. Entonces a1 debe dar un estímado del efecto "verdadero" o neto de un cambio unitario en X2 sobre Y (es decir, el producto marginal neto del trabajo) o la verdadera pendiente de Y con respecto a X2, es decir, un estimado de β2. De hecho, ésto se hace, como se muestra en el ápendice 7A, sección 7A.2. (Véase también el ejercicio 7.5)

Geométricamente, se tiene la figura 7.2. En la práctica, sin embargo, no hay necesidad de pasar por este procedimiento elaborado y dispendioso, ya que a1 puede ser estimada directamente de las fórmulas dadas en la sección 7.4. El procedimiento de tres etapas recién esbozado es apenas una herramienta pedagógica, para hacer entendible el significado del coeficiente de regresión "parcial".


viernes, 7 de marzo de 2014

Significado de los coeficientes de regresión parcial (II)

Cómo se realiza este procedimiento de control? Para ser concretos, supóngase que se desea controlar la influencia lineal del insumo capital X3 en la medición del impacto de un cambio unitario, en el insumo de trabajo X2 sobre el producto. Con este fin, se puede proceder de la siguiente manera:
Etapa I: Ectúase la regresión de Y solamente sobre X3 de la siguiente manera:

La ecuación (7.3.1) no es otra cosa que una regresión con dos variables, con la diferencia de que tiene una nueva notación autoexplicativa, donde û1i es el término residual (muestral). (Nota: En b13 el subíndice 1 se refiere a la variable Y)

jueves, 6 de marzo de 2014

Significado de los coeficientes de regresión parcial (I)

El significado del coeficiente de regresión parcial es el siguiente: β2 mide el cambio en el valor de la media de Y, E(Y︱X2, X3) por unidad de cambio en X2, permaneciendo X3 constante. En otras  palabras, nos da la pendiente de E(Y︱X2, X3) con respecto a X2 manteniendo X3  constante. Expresado en forma diferente, dos da el efecto "directo" o "neto" de una unidad de cambio en  X sobre el valor de la media de Y, neto de , X3 . De forma similar, β3 mide el cambio en el valor de la media de Y por unidad de cambio en X3, manteniendo X2 constante. Es decir, da el efecto "directo" o "neto" de una unidad de cambio en Xsobre el valor de la media de Y, sin considerar X2.

Qué tan preciso es el significado del término mantener constante?. Para entender esto, supóngase que Y representa el producto y   X2 y X representan  los insumos trabajo y capital, respectivamente. Piénsese además que tanto X2 como X se requieren en la producción de Y y las proporciones en las cuales estos pueden ser empleados en la producción de Y pueden variar. Ahora, téngase en cuenta que se incrementa el insumo trabajo en una unidad, lo cual resulta en algún aumento en la producción (producto marginal bruto del trabajo). Se puede atribuir el cambio resultante en el producto exclusivamente al insumo trabajo X2. Si se fuera a hacer eso, se estaría inflando la contribución de X2 en Y; X2 obtiene "crédito" por esa porción del cambio en Y debida al aumento contamitante el el insumo capital. Por consiguiente, para evaluar la "verdadera" contribución de X al cambio en Y (el producto marginal neto del trabajo), se debe "controlar" de alguna forma la influencia de X3. En forma similar, para evaluar la verdadera contribución de X3 se debe controlar también la influencia  de X2.

miércoles, 5 de marzo de 2014

Interpretación de la ecuación de regresión múltiple

Dados los supuestos del modelo de regresión clásico, se cumple que, al tomar la esperanza condicional de Y a ambos lados de (7.1.1), se obtiene.
Expresado en palabras, de (7.2.1) se obtiene la media condicional o el valor esperado de Y condicionado a los valores dados o fijos de las variables X2y X3. Por consiguiente, igual que en el caso de dos variables, el análisis de regresión múltiple es el análisis de regresión condicional, a los valores fijos de las variables explicativas y lo que obtenemos es el valor promedio o la media de Y, o la respuesta media de Y a valores fijos de las variables X.




martes, 4 de marzo de 2014

Modelos de tres variables: notación y supuestos (V)

A pesar de que se considerará en más detalle el problema de multicolinealidad en el capítulo 10 intuitivamente la lógica detrás del supuesto de multicolinealidad no es díficil de etender. Supóngase que en (7.1.1) Y,  X2 y X3 representan el gasto de consumo, el ingreso y la riqueza del consumidor, respectivamente. Al postular que el gasto de consumo está relacionado linealmente con el ingreso y la riqueza, la teoría  económica presupone que los dos anteriores pueden tener alguna influencia independiente sobre el consumo. De no ser asía, no tiene sentido incluir ambas variables, ingreso y riqueza, en el modelo. En la situación extrema, si existe una relación lineal  exacta entre ingreso y riqueza solamente se tiene una variable independiente, no dos y no hay foma de evaluar la influencia separada del ingreso y de al riqueza sobre el consumo. Para ver esto claramente, sea X3i = 2X2i en la regresión consumo-ingreso-riqueza. Entonces, la regresión (7.1.1) resulta ser:

donde α = (β2 + 2β3). Es decir, de hecho se tiene una regresión de dos variables y no de tres. Además, si se corre la regresión (7.1.10) y se obtiene α, no hay forma de estimar la influencia separada de X2(=β2)  y X3(=β3 ) sobre Y, pues  α nos da la influencia combinada de X2 y X3 sobre Y^4.

En resumen, el supuesto de no multicolinealidad requiere que en la FRP se incluyan solamente aquellas variables que no sean funciones lineales de algunas de las variables en el modelo. Ootro problema será si esto puede siempre lograrse en la práctica, lo cual será investigado extensamente en el capítulo 10.




lunes, 3 de marzo de 2014

Modelos de tres variables: notación y supuestos (IV)

Así, sí

X2i = -4X3i o X2i + 4X3i = 0

las dos variables son linealmente dependientes y si ambas son incluidas en un modelo de regresión, se tendrá colinealidad perfecta o una relación lineal exacta entre los dos regresores.

Pero supónganse que X3i = X²2i Violaria el supuesto de no colinealidad? No, porque la relación entre las dos variables en este caso es no lineal y no viola el requisito de que no existan relaciones lineales exactas entre los regresores. Sin embargo, debe observarse en esta caso que el r² y el r calculados convencionalmente, serán elevados, particularmente en las muestras de X2 y X3, con pocos valores en el extremo. Pero se hablará más acerca de este tema en el capítulo 10.

domingo, 2 de marzo de 2014

Modelos de tres variables: notación y supuestos (III)

La razón de los supuestos (7.1.2) a (7.1.6) es la misma analizada en la sección 3.2. El supuesto (7.1.7.) que establece la no existencia de una relación lineal exacta entre X2 y X3,conocida técnicamente como el supuesto de no colinealidad,o de no multicolinealidad cuandohay más de una relación lineal exacta involucrada, es nuevo y requiere alguna explicación.

Informalmente, el concepto de no colinealidad significa que ninguna de las variables explicativas puede escribirse como combinación lineal de las variables explicativas restantes. El significado de este concepto puede entenderse mediante el diagrama de Venn, o de Ballentine estudiado en el capítulo 3. En esta figura, el círculo Y representa variación en la variable dependiente Y y los círculos X2 y X3 representan variaciones en los regresores X2 y X3 respectivametne. En la figura 7.1a el área 1 representa variaciones en Y explicadas por X2(mediante una regresión MCO), y el area 2 variación en Y explicada por X2 y las áreas 4 y 5 representan la variación en Y explicada por X3. Pero, dado que el área 4 es común a X2 y X3, no sabemos a priori qué parte de 4 pertenece a X2 y qué parte a X3. El área común 4 representa la situación de colinealidad. Lo que requiere el supuesto de no colinealidad es que no haya sobreposición entre X2 y X3, es decir, el área común 4 debe ser cero. En otras palabras, lo que se desea se asemeja a la situación ilustrada en la figura 7.1a.

Formalmente, la no colinealidad significa que no existe un conjunto de números λ2 y λ3, tales que al menos uno sea diferente de cero de forma tal que.



sábado, 1 de marzo de 2014

Modelos de tres variables: notación y supuestos (II)

Se continúa operando dentro del marco del modelo clásico de regresión lineal (MCRL), introducido por primera vez en el capitulo 3. Específicamente, se supone lo siguiente:


Adicionalmente, igual que el capítulo 3, se supone que el modelo de regresión múltiple es lineal en los parámetros, que los valores de los regresores son fijos en muestreo repetido y que hay suficiente variabilidad en dichos valores.