Busca en el Blog

miércoles, 30 de abril de 2014

Resultados empíricos

Cuando la regresión polinomial de tercer grado se ajustó a los datos de la tabla 7.4, se obtuvieron los siguientes resultados.

Yi = 141.7667 + 63.4776Xi - 12.9615Xi² + 0.9396Xi³
(6.3753) (4.7786) (0.9857) (0.0591) (7.11.6)
R² = 0.9983

(Nota: Las crifras en paréntesis son los errores estándar estimados). Aun cuando se examinará la significancia estadística de estos resultados en el siguiente capítulo, el lector puede verificar que éstos serán en conformidad con las expectativas teóricas descritas en 97.11.5). Como ejercicio para el lector dejamos la tarea de interpretar la regresión (7.11.6)

martes, 29 de abril de 2014

Estimación de la función de costo total (II)

Dada la información de la tabla 7.4, se puede aplicar el método MCO para estimar los parámetros de (7.11.4). Pero, antes de hacerlo, véase lo que la teoría económica tiene que decir sobre la función cúbica de costos de corto plazo (7.11.4). La teoría elemental de precios muestra que en el corto plazo, las curvas de costo marginal de producción (CM) y de costo promedio (CP) en general tiene forma de u - incialmente, a medida que la producción aumenta tanto el CM como el CP decrecen pero, después de un nivel dado de producción, ambas vuelven a aumentar, nuevamente como consecuencia de la ley de rendimientos decrecientes. ESto puede verse en la figura 7.6 (véase también la figura 7.4). Y, puesto que las curvas de CM y de CP se derivan de la curva de costo total, la naturaleza de estas curvas en forma de U impone algunas restricciones sobre los parámetros de la curva de costo total (7.11.4).

De hecho, puede mostrarse que los parámetros de (7.11.4) deben satisfacer las siguientes restricciones si se desea observar las curvas de costo marginal y promedio de corto plazo en forma típica de U.

1. βo, β1 y β3 >0
2. β2 < 0
3. β2² < 3β1β3

Toda esta exposición teórica podría parecer un poco tediosa. Pero este conocimiento es extremadamente útil cuando se examinan los resultados empíricos, puesto que sí éstos no concuerdan con las expectativas a priori, entonces, suponiendo que no se ha cometido un error de especificación (es decir, escogido el modelo erróneo), tendremos que modificar nuestra teoría o buscar una nueva y reiniciar la investigación empírica desde el principio. Pero como se anotó en la introducción, ésta es la naturaleza de cualquier investigación empírica.

lunes, 28 de abril de 2014

Estimación de la función de costo total (I)

Como ejemplo de regresión polinomial, considérese la información dada en la tabla 7.4 sobre producción de un bien y su costo de producción total en el corto plazo. Qué tipo de modelo de regresión ajustará estos datos? Para este fin, dibújese primero el diagrama de dispersión, que se muestra en la figura 7.5.

De esta figura es claro que la relación entre el costo total y el de la producción, semeja una curva en forma de S alargada; obsérvese como la curva de costo total primero aumenta gradualmente y luego lo hace rápidamente, como lo establece la conocida ley de rendimientos decrecientes. Esta forma de S de la curva de costo total puede ser representada por el siguiente polínomio cúbico ó de tercer grado.

Yi = βo + β1Xi + β2Xi² + β3Xi³ + ui

Donde Y = costo total y X = producción




domingo, 27 de abril de 2014

Modelos de regresión polinomal (III)

Téngase en cuenta que en estos tipos de regresiones polinomiales, solamente hay una variable explicativa al lado derecho, pero aparece elevada a distintas potencias, convirtiéndolas en modelos de regresión múltiple. A propósito, obsérvese que si se ha supuesto que Xi es fija o no estocástica, los términos de Xi elevados a alguna potencia también se hacen fijos o no estocásticos.

Presentan estos modelos problemas especiales de estimación? Puesto que el polinomio de segundo grado (7.11.2) o el polinomio de grado k (7.11.13) es lineal en los parámetros, los β pueden ser estimados mediante las metodologías usuales MCO o MV. Pero, qué sucede con el problema de colinealidad? Acaso las diferentes X no están altamente correlacionadas puesto que todas son potencias de X? Si, pero recuérdese que términos como X², X³, X^4, etc, son todas funciones no lineales de X y por consiguiente, de manera estricta, no violan el supuesto de no multicolinealidad. En resumen, es posible estimar modelos de regresión polinomial mediante las técnicas presentadas en este capítulo sin que se presenten nuevos problemas de estimación.

Modelos de regresión polinomal (II)

La versión estocástica de (7.11.1) puede escribirse así:

Yi = βo + β1Xi + β2Xi² + ui

que se denomina una regresión polinomial de segundo grado.

La regresión polinomial de grado k general puede escribirse asi:


Yi = βo + β1Xi + β2Xi² +.........+ βkXi^k + ui

sábado, 26 de abril de 2014

Modelos de regresión polinomal (I)

Para concluir este capítulo, se considerará una clase de modelos de regresión múltiple, los modelos de regresión polinomal que han encontrado un amplio uso en la investigación econométrica relacionada con funciones de costo y de producción. Al introducir estos modelos, se amplía el rango de modelos a todos los que pueda aplicarse fácilmente el modelo clásico de regresión lineal.

Para ordenar las ideas, considérese la figura 7.4 que relaciona el costo marginal de corto plazo (CM) de la producción de un bien (Y) con el nivel de su producto (X). La curva de CM dibujaa en la figura, la curva con forma de U de los textos, muestra que la relación entre CM y producto es no lineal. Si se fuera a cuantificar esta relación a partir de algunos puntos dispersos dados. Cómo se haría? En otras palabras, qué tipo de modelo econométrico recogerá la naturaleza primero decreciente y luego creciente del costo marginal?

Geométricamente, la curva CM que aparece en la figura 7.4 representa una parábola. Matemáticamente, la parábola está representada por la siguiente ecuación.

Y = βo + βtX + β2X²

que se denomina función cuadrática ó, más generalmente, un polinomio de segundo grado en la variable X - la mayor potencia de X representa el grado del polinomio (si se agregara un X³ a la función anterior, sería un polinomio de tercer grado y así sucesivamente).

jueves, 24 de abril de 2014

Ejemplo La función de producción COBB-Douglas: más sobre la forma funcional (IV)

Suponiendo que el modelo (7.10.2) satisface los supuestos del modelo clásico de regresión lineal, se obtuvo la siguiente regresión lineal, se obtuvo la siguiente regresión por el método MCO:


De la ecuación (7.10.4), se ve que en el sector agrícola taiwanés durante el períoo 1958-1972, las elasticidades del producto con respecto al trabajo y al capital fueron 1.4988 y 0.4899 respectivamente. En otras palabras, durante el período en estudio, manteniendo constante el insumo capital, un incremento de 1% en el insumo trabajo condujo en promedio a un incremento de cerca del 1.5% en el producto. En forma similar, manteniendo constante el insumo de trabajo, un incremento del 1% en el insumo capital condujo en promedio a un incremento de cerca del 0.5% en el producto. Sumando las dos elasticidades del producto, se obtiene 1.9887, que da el valor del parámetro de rendimientos a escala. Como es evidente, durante el período en estudio, el sector agrícola taiwanés se caracterizó por rendimientos crecientes a escala.

Dese el punto de vista puramente estadístico, la línea de regresión estimada se ajusta a los datos bastante bien. El valor R² de 0.8890 significa que cerca del 89% de la variación en el (log del) producto es explicado por el (log del) trabajo y el (log del) capital.

miércoles, 23 de abril de 2014

Ejemplo La función de producción COBB-Douglas: más sobre la forma funcional (III)

Antes de continuar obsérvese que siempre que se tenga un modelo de regresión log-lineal con cuálquier número de variables, el coeficiente de cada una de las variables X mide la elasticidad (parcial) de la variable dependiente Y con respecto a esa variable. Así, si se tiene un modelo log-lineal con k variables.

ln Yi = βo + β2lnX2i + β3lnX3i + .........+βklnXki + ui

cada uno de los coeficientes de regresión (parcial), β2 hasta βk, es la elasticidad (parcial) de Y con respecto a las variables de X2 hasta X.

Para ilustrar la función de producción de Cobb-Douglas, se obtuvo la información que aparece en la tabla 7.3; esta información se refiere al sector agrícola de Taiwan durante 1958-1972.


martes, 22 de abril de 2014

Ejemplo La función de producción COBB-Douglas: más sobre la forma funcional (II)

EScrito de esta forma, el modelo es lineal en los parámetros βo, β2 y β3 y por consiguiente es un modelo de regresión líneal. Obsérvese, sin embargo, que es no lineal en las variables Y y X aunque sí lo es en los logaritmos de éstas. En resumen, (7.10.2) es un modelo log-log, doble-log o log-lineal, el equivalente en la regresión múltiple al modelo log-lineal con dos variables (6.4.3).

Las propiedades e la función de producción de Cobb-Douglas son bien conocidas:

  1. β2 es la elasticidad (parcial) del producto  con respecto al insumo trabajo, es decir, mide el cambio porcentual en la producción debido, a una variación del 1% en el insumo trabajo, manteniendo el insumo capital constante (véase ejercicio 7.10).
  2. De igual forma, β3 es la elasticidad (parcial) el producto con respecto al insumo capital, manteniendo constante el ínsumo trabajo.
  3. La suma (β2 + β3) nos da información sobre los rendimientos de escala, es decir, la respuesta del producto a un cambio proporcional en los insumos. Si esta suma es 1, entonces existen rendimientos constantes a estaca, es decir, la duplicación de los insumos duplicará el producto, la triplicación de los insumos triplicará el producto y así sucesivamente. Si la suma es menor que 1, existen rendimientos decrecientes a escala -duplicando los insumos, el producto crecerá en menos del doble. Finalmente, si la suma es mayor que 1, habrá rendimientos crecientes a escala- la duplicación de los insumos aumentará el producto en más del doble.

lunes, 21 de abril de 2014

Ejemplo La función de producción COBB-Douglas: más sobre la forma funcional (I)

En la sección 6.4 se demostró cómo, mediante transformaciones apropiadas, se pueden convertir relaciones no lineales en relaciones lineales de tal forma que podamos trabajar dentro del marco del modelo clásico de regresión lineal. Las diversas transformaciones analizadas allí en el contexto del caso de dos variables pueden ampliarse fácilmente a los modelos de regresión múltiple. Se demostraron las transformaciones en esta sección haciendo uso de una extensión multivariable del modelo log-lineal de dos variables, pueden encontrarse otras en los ejercicios y en los ejemplos ilustrativos estudiados en el resto de este blog. El ejemplo especifíco que tratamos es la conocida función de producción de Cobb-Douglas de la teoría de producción.


La función de producción de Cobb-Douglas, en su forma estocástica, puede expresarse como

domingo, 20 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (VI)

Antes de continuar, obsérvese las siguientes relaciones entre el R², los coeficientes de correlación simple y los coeficientes de correlación parcial:

Para terminar esta sección, considérese lo siguiente: Se planteó anteriormente que R² no disminuirá si se introduce una variable explicativa adicional en el modelo, lo cual puede verse claramente de (7.9.7). Esta ecuación afirma que la proporción de la variación en Y explicada por X2 y X3 conjuntamente es la suma de dos partes: la parte explicada solamente por X2 (=r²12) y la parte no explicada por X2 (=1 - r²12) veces la proporción que es explicada por X3 después de mantener constante la influencia de X2. Ahora R² > r²12 siempre que r²13.2 > 0. En el peor de los casos, r²13.2 será cero, en cuyo caso R² = r²12.

sábado, 19 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (V)

5. Supóngase que r13 = r23 = 0. Significa esto que r12 es también cero? La respuestas es obvia y  se desprende de (7.9.5). El hecho de que Y y X3 y X2 y X3 no estén correlacionadas no significa que Y y X2 no lo estén.

A propósito, obsérvese que la expresión r²12.3 puede denominarse el coeficiente de determinanción parcial y puede ser interpretado como la proporción de la variación en Y no explicada por la variable X3 que ha sido explicada por la inclusión de X2 en el modelo (véase ejercicio 7.6) Conceptualmente es similar a R².


viernes, 18 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (IV)

4. En el caso de dos variables, hemos viso que r² se encuentra entre 0 y 1. La misma propiedad se cumple para los coeficientes de correlación parcial cuadráticos. Haciendo uso de este hecho, el lector debe verificar que es posible obtener la siguiente expresión a partir de (7.9.2)

0 ≤ r²12 + r²13 + r²23 - 2r12r13r23 ≤ 1

que da las interrelaciones entre los tres coeficientes de correlación de orden cero. Expresiones similares pueden derivarse a partir e las ecuaciones (7.9.3) y (7.9.4).

jueves, 17 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (III)

3. Los términos r12.3 y r12 (y comparaciones similares) no necesitan tener el mismo signo.

miércoles, 16 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (II)

2. Si r12 = 0 y r13 y r23 son diferentes de cero y tienen el mismo signo, r12.3 será negativo, mientras que si son de signos opuestos, será positivo. Un ejemplo hará más claro este punto. Sea Y = producto de la cosecha, X2 = la lluvia y X3 = la temperatura. Supóngase que r12 = 0, es decir, no hay asociación entre el producto de la cosecha y la lluvia. Téngase en cuenta, además que r13 es positivo y 323 es negativo. Entonces, como lo indica (7.9.2). r12.3 será positivo; es decir, manteniendo la temperatura constante, existe una asociación positiva entre la cosecha y la lluvia. Sin embargo, este resultado, aparentemente paradójico, no es sorprendente. Puesto que la temperatura X3 afecta la producción Y y también afecta la lluvia X2 con el fin de encontrar la relación neta entre producto de la cosecha y lluvia, debemos eliminar la influencia de la "molesta" variable temperatura. Este ejemplo muestra cómo el coeficiente de correlación simple puede llevar a resultados equivocados.

martes, 15 de abril de 2014

Interpretación de los coeficientes de correlación simple y parcial (I)

En el caso de dos variables, el r simple tenía un significado directo: medía el grado de asociación (líneal) (no causación) entre la variable dependiente Y y la variable explicativa X. Pero, una vez se sale del caso de dos variables, se debe prestar cuidadosa atención a la interpretación del coeficiente de correlación simple. De (7.9.2), por ejemplo, se observa lo siguiente:

  1. Aún si r12 = 0, r12.3 no será cero a menos que r13 o r23 o ambos sean cero.

lunes, 14 de abril de 2014

Coeficientes de Correlación parcial - Explicación de los coeficientes de correlación simple y parcial (III)

En realidad, no es necesario pasar por el procedimiento de tres etapas para calcular las correlaciones parciales porque éstas pueden obtenerse fácilmente de los coeficientes de correlación simple o de orden cero de la manera siguiente (paara las demosatraciones, véase los ejercicios).


Las correlaciones parciales dadas en las ecuaciones (7.9.2) (7.9.4) se denominan coeficientes de correlación de primero orden. Por orden se quiere decir el número de subíndices secundarios. Así r12.34 sería el coeficiente de correlación de orden dos, r12.345 sería el coeficiente de correlación de orden tres, y así sucesivamente. Como se anoto anteriormente, r12, r13 y así sucesivamente se denominan correlaciones simples de orden cero. La interpretación de r12.34, por ejemplo es que éste da el coeficiente de correlación entre Y y X2, manteniendo constante X3 y X4.

domingo, 13 de abril de 2014

Coeficientes de Correlación parcial - Explicación de los coeficientes de correlación simple y parcial (II)

Una forma de calcular los coeficientes de correlación parcial anteriores es la siguiente: Recuérdese el procedimiento de tres etapas estudiado en la sección 7.3. En la tercera etapa se realiza la regresión de ûti sobre û2i que eran Yi y X2i depurados, es decir depurados de la influencia lineal de X3. Por consiguiente, si ahora se calcula el coeficiente de correlación simple entre û1i y û2i, se debe obtener r12.3 porque la variable X3 se mantiene ahora constante. Simbólicamente.

donde se hace uso del hecho de que ût = û2 = 0 Por qué?

Del análisis anterior, es claro que la correlación parcial entre Y y X2, manteniendo X3 constante, no es otra cosa que el coeficiente de correlación simple (o de orden cero) entre los residuales de la regresión de Y sobre X3 y de X2 sobre X3, respectivamente. Los términos r13.2 y r23.1 deben ser interpretados en forma similar.

sábado, 12 de abril de 2014

Coeficientes de Correlación parcial - Explicación de los coeficientes de correlación simple y parcial (I)

En el capítulo 3 se introdujo el coeficiente de correlación r como una medida del grado de asociación lineal entre dos variables. Para el modelo de regresión con tres variables se pueden calcular tres coeficientes de correlación: r12 (correlación entre Y y X2), r13 (coeficiente de correlación entre Y y X3) y r23 (coeficiente de correlación entre X2 y X3); obsérvese que subíndice 1 representa Y por conveniencia notacional. Estos coeficientes de correlación se denominan coeficientes de correlación bruta o simple o coeficientes de correlación de orden cero. Estos coeficientes pueden ser calculados a partir de la definición de coeficientes de correlación dada en (3.5.13).

Pero consideramos ahora este interrogante: Podemos decir en realidad que r12 mide el "verdadero" grado de asociación (líneal) entre Y y X2 cuando existe una tercera variable X3 que puede estar asociada con ellas? Esta pregunta es análoga a la siguiente: Suponga que el verdadero modelo de regresión verdadero es (7.1.1) pero omitimos del modelo la variable X3 y simplemente regresamos Y sobre X2, obteniendo el coeficiente de la pendiente, de digamos b12. Será este coeficiente igual al verdadero coeficiente β2 si para empezar, fuera estimado el modelo (7.1.1)? La respuesta debe ser clara a partir del análisis en la sección 7.7. En general r12 probablemente no refleja el verdadero grado de asociación entre Y y X2 en presencia de X3. De hecho, es probable que dé una falsa impresión de la naturaleza de la asociación entre Y y X2 como se demostrará en breve. Por consiguiente, lo que se necesita es un coeficiente de correlación que sea independiente de la influencia, si hay alguna, de X3 sobre X2 y Y. Dicho coeficiente de correlación puede ser obtenido y se conoce apropiadamente como el coeficiente de correlación parcial. Conceptualmente, es similar al coeficiente de regresión parcial. Se define.

r12.3 = coeficiente de correlación parcial entre Y y X2, manteniendo X3 constante
r13.2 = coeficiente de correlación parcial entre Y y X3, manteniendo X2 constante
r23.1 = coeficiente de correlación parcial entre X2 y X3, manteniendo Y constante

viernes, 11 de abril de 2014

El "juego" de maximización de R²

Para concluir esta sección debe hacerse una advertencia: Algunas veces los investigadores juegan de maximizar el R², es decir, escogen el modelo que da el R² más elevado. Pero esto puede ser peligroso, ya que en el análisis de regresión, el objetivo no es obtener un R² elevado per se sino más bien obtener estimados de los verdaderos coeficientes de regresión poblacional de los cuales se puede depender y sea posible realizar inferencia estadística sobre ellos. En el análisis empírico no es inusual obtener un R² muy elevado, sino encontrar que algunos de los coeficientes de regresión no son estadísticamente significativos o muestran signos contrarios a los esperados a priori. Por consiguiente, el investigador debe preocuparse más por la relevancia lógica o teórica que tienen las variables explicativas para la variable dependiente y por su significancia estadística. Si en este proceso se obtiene un R² elevado, muy bien; por otra parte, si R² es bajo, esto no significa que el modelo sea necesariamente malo.

De hecho, Goldberger es muy crítico sobre el papel del R²; ha dicho:

Desde nuestra perspectiva, el R² tiene un papel muy modesto en el análisis de regresión, y es una medida de la bondad del ajuste de una regresión lineal MC (mínimos cuadrados) de una muestra en un cuerpo de datos. Nada en el modelo RC [MCRL] exige que R² sea elevado. Por tanto, un R² elevado no es evidencia en favor del modelo y un R² bajo no es evidencia en su contra.

De hecho, lo más importante sobre el R² es que éste no es importante en el modelo RC. El modelo RC tiene que ver con parámetros en una población, no con la bondad de ajuste en la muestra. Si se insiste en una medida de predecir el éxito (o más bien el fracaso), entonces σ² sería suficiente: después de todo el parámetro σ² es el error de predicción esperado al cuadrado que resultaría si la población CEF[FRP] fuera utilizado como predictor. En forma alterna, el error estándar de predicción elevado al cuadrado para valores relevantes de x [regresores] puede ser informativo.

jueves, 10 de abril de 2014

Ejemplo Función de demanda de café reconsiderada (II)

Supóngase que se decide primero comparar el valor de R² del modelo lineal (3.7.1) con el valor de R² del modelo doble-log (6.4.5). De la Y estimada dada por (3.7.1) se obtiene primero (lnYt), luego el log (3.5.14). Utilizando la información dada en la tabla 7.2, el lector puede verificar que el valor de R² así calculado es 0.7318, que es directamente comparable con el valor r² del modelo log-lineal (6.4.5), a saber, 0.748, aun cuando el valor R² obtenido del modelo log-lineal es ligeramente más alto.
Por otra parte, si se desea comparar el valor R² del modelo log-lineal con el obtenido del modelo lineal, se estima ln Yt de (6.4.5), se obtienen sus valores antilog y finalmente se calcula el R² entre estos valores antilog y los valores de Y observados utilizando la fórmula (3.5.14). El lector puede verificar a partir de la información dada en la Tabla 7.2 que este valor R² es 0.7187, el cual es superior al valor R² de 0.6628 obtenido del modelo lineal (3.7.1).

Utilizando cualquier método, se observa que el modelo log-lineal ofrece un ajuste ligeramente mejor

miércoles, 9 de abril de 2014

Ejemplo Función de demanda de café reconsiderada (I)

Para comparar los valores de R² obtenidos de dos modelos en los cuales las variables dependientes no son las mismas, como sucede en los modelos (3.7.1) y (6.4.5), se procede de la siguiente manera:

  1. Obténgase lnYt del modelo (6.4.5), después los valores de sus antilogarítmos y luego calcúlese el R² entre el antilog de ln Yt y Yt en la forma indicada por la ecuación (3.5.14). Este valor Yt es comparable con el valor R² del modelo (3.7.1).
  2. Alternativamente, obténgase Yt de (3.7.1), conviértase en (ln Yt) y, finalmente, calcúlese el R² entre el ln(Yt) y el ln(Yt) de acuerdo con la ecuación (3.5.14). Este valor R² es comparable con el valor de R² obtenido de (6.4.5).

martes, 8 de abril de 2014

Comparación de dos valores de R²

Es de crucial importancia anotar que al comprar dos modelos con base en el coeficiente de determinación, ajustado o no, el tamaño de la muestra n y la variable dependiente deben ser los mismos; las variables explicativas pueden tomar cualquier forma. Así, para los modelos:

los terminos R² calculados no pueden ser comparados. La razón es la siguiente: Por definición, el R² mide la proporción de la variación en la variable dependiente explicada por la(s) variable(s) explicativa(s). Por consiguiente, en (7.8.6) el R² mude la proporción de la variación en ln Y explicada por X2 y X3, mientras que en (7.8.7) mide la porporción de la variación en Y y las dos no son la misma variable: Como se observó en el capítulo 6, un cambio en ln Y da un cambio relativo o proporcional en Y, mientras que un cambio en Y da un cambio absoluto. Por consiguiente, var Yi/varYi no es igual a var(ln Yi)/var(lnYi), es decir, los dos coeficientes de determinación no son lo mismo.

Si se hace referencia a la función de demanda de café (3.7.1), que es la especificación líneal y a (6.4.5), la especificación log-lineal, los dos términos de r² 0.6628 y 0.7448 respectivamente, por tanto, no son directamente comparable. Cómo entonces se comparan los términos R² de modelos tales como (3.7.1) y (6.4.5)? Para explicar la forma de hacerlo, recúrrase al ejemplo de demada de café.

lunes, 7 de abril de 2014

R² y R² Ajustado (V)

Su sugerencia es informar sobre el R², n y k y dejar que el lector decida sobre la forma de ajustar el R² considerando n y a k.

A pesar de esta sugerencia, es el R² ajustado, como aparecen en (7.8.4), el que es utilizado por la mayoría de los paquetes estadísticos junto con el R² convencional. Se aconseja al lector tratar el R² como cualquier otro estadístico más de resumen.

Además de R² y R² ajustado como medidas de bondad de ajuste, a menudo se utilizan otros criterios para juzgar la bondad de un modelo de resgresión. Dos de estos son el criterio de información Alkaike y el criterio de predicción de Amemiya, los cuales son utilizados para escoger entre modelos que compiten. Se analizarán estos criterios cuando se considere el problema de selección de modelos de mayor detalle en un capítulo posterior.

domingo, 6 de abril de 2014

R² y R² Ajustado (IV)

De la ecuación (7.8.4) se hace inmediatamente entendible que (1) para k > 1, R² < R² lo cual implica que a medida que el número de variables X aumenta, el R² ajustado aumenta menos que el R² no ajustado; y (2) el R² puede ser negativo, aun cuando el R² es necesariamente no-negativo. En caso de que el R² resulte ser negativo en una aplicación, su valor se toma como cero. (El lector debe verificar que para el ejemplo ilustrativo dado anteriormente, el R² es 0.8519, que es menor que el valor de R² 0.8766).

Cuál R² se debe utilizar en la práctica? Como lo anota Theil:

... es una buena práctica utilizar R² en lugar de R² por que R² tiende a dar una imagen demasiada optimista del ajuste de la regresión, particularmente cuando el número de variables explicativas no es muy pequeño comparado con el número de observaciones.

Pero la opinión de Theil no es compartida totalmente, ya que él no ha dado una justificación teórica general para la "superioridad" de R². Por ejemplo, Goldberger argumenta que el siguiente R², denominado R² modificado, servirá igualmente.

R² Modificado = (1-k/n)R²

sábado, 5 de abril de 2014

R² y R² Ajustado (III)

La ecuación (7.8.2) puede se escrita también como
donde σ² es la varianza residual, un estimador insesgado de la verdadera σ², y S²y es la varianza muestral de Y.

Es fácil ver que el R² y el R² están relacionados porque, al incluir (7.8.1) en (7.8.2), se obtiene.

viernes, 4 de abril de 2014

R² y R² Ajustado (II)

Ahora, Σyi² es independiente del número de variables X en el modelo porque es simplemente Σ(Yi-Y)². La SRC, Σûi², sin embargo, depende del número de regresores presentes en el modelo. Intuitivamente, es calor que a medida que el número de variables X aumenta, es más probable que Σui² disminuya (al menos no aumentará); por tanto, el R² como ha sido definido en (7.8.1) aumentará. En vista de esto, al comparar los modelos de regresión con la misma variable dependiente pero un número diferente de variables X. se debe tener mucho cuidado al escoger el modelo con el R² más alto.

Para compara dos términos R², se debe tener en cuenta el número de variables X presentes en el modelo. Esto puede hacerse fácilmente si se considera un coeficiente de determinación alternativo, que es el siguiente:
donde k = el número de parámetros en el modelo incluyendo el término de intercepto. (En la regresión con tres variables, k = 3. Por qué? El R² así definido se conoce como R² ajustado, denotado por R². El término ajustado significa ajustado por los g de l asociados con las sumas de los cuadrados que se consideran en (7.8.1): Σûi² tiene n-k g de l en un modelo que contiene k parámetros, el cual incluye el término de intercepto y Σyi² tiene n-1 g de l. Por qué? Para el caso de tres variables, se sabe que Σûi² tiene n-3 g de l.

jueves, 3 de abril de 2014

R² y R² Ajustado (I)

Una propiedad importante el R² es que es una función no decreciente del número de variables explicativas o de regresores presentes en el modelo, a medida que aumenta el número de regresores, el R² aumenta casi invariablemente y nunca disminuye. Planteado de otra forma, una variable adicional X no reducira al R². Para ver esto, recuérdese la definición del coeficiente e determinación.


miércoles, 2 de abril de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (VII)

La conclusión de la discusión en esta sección es simplemente esta: Si se requiere una regresión de tres variables, no efectuar una regresión simple o de dos variables. O, en forma más general, si se adopta un modelo particular de regresión como el "verdadero" modelo, no modificar omitiendo una o más variables de éste. Si ignora este principio, es probable que se obtengan estimados sesgados de los parárametros. No sólo eso, es probable que se subestime la verdadera varianza (σ²) y, por consiguiente los errores estándar estimados de los coeficientes de regresión. Aunque se demostrará esto formalmente en el capítulo 13, es posible darse una idea a este respecto comparando los resultados de las regresiones (7.6.2) y (7.7.6). El error estándar de β2 es mucho menor (en relación con su coeficiente) en (7.6.2) que en (7.7.6) (en relación con su coeficiente). Por tanto, los intervalos de confianza y la prueba e hipótesis basados en el modelo (correcto) (7.6.2) tienden a ser mucho más confiables que aquellos basados en el modelo mal especificado (7.7.6)

martes, 1 de abril de 2014

La regresión simple en el contexto de Regresión múltiple: Introducción al sesgo de especificación (VI)

Como lo indica esta ecuación, b32 = 1.1138 significa que a medida que X2 aumenta en una unidad, X3 aumenta en promedio cerca de 1.11 unidades. Pero si X3 aumenta en estas unidades, su efecto sobre Y será (1.4700)(1.1138) = β3b32= 1.6373. Por consiguiente, de (7.7.2) finalmente tenemos que