Busca en el Blog

martes, 31 de diciembre de 2013

Prueba de Bondad de Ajuste Ji Cuadrado(X²) (III)

donde Oi = frecuencia observada en la clase o intervalo i y Ei = la frecuencia esperada en la clase i con base en la distribución hipotética, es decir, la normal. Ahora, si la diferencia entre las frecuencias observada y esperada es "pequeña", esto sugiere que las perturbaciones ui probablemente provienen de la distribución de probabilidad hipotética. Por otra parte, si la discrepancia entre las frecuecias observada y esperada es "grande", podemos rechazar la hipótesis nula de que las perturbaciones provienen, de la distribución de probabilidad hipotética.Por esta razón, el estadístico dado en (5.12.1) es llamado una medida de bondad de ajuste, ya que nos dice qué tan bien se ajusta la distribución de probabilidad hipotética a los datos observados, es decir es el ajuste bueno?.

Qué tan "grande" o "pequeño" debe ser el valor de X² dado en (5.12.1) para hacernos decidir en contra o a favor de la hipótesis nula, es decir, rechazarla o no? Puede mostrarse que si el tamaño de la muestra es razonablemente grande, el estadístico X² dado en (5.12.1) presenta aproximadamente la distribución Ji cuadrado (X²) con (N-1) g de l, donde N es el número de clases o de grupo. Se pierde un grado de libertad debido a la restricción de que el número total de frecuencias observadas y esperadas debe ser el mismo.

lunes, 30 de diciembre de 2013

Prueba de Bondad de Ajuste Ji Cuadrado(X²) (II)

La fila titulada como residuales observados de la distribución de frecuencia de los residuales para desviaciones estándar específicas por debajo y por encima de cero. En el ejemplo no hay residuales a una distancia de 2 desviaciones estándar por debajo de cero, hay 2 residuales entre 1 y 2 desviaciones estándar por debajo de cero, hay 3 residuales entre 0 y 1 desviaciones estándar por debajo de cero, hay 4 residuales entre 0 y 1 desviación estándar por encima de cero hay 1 residual entre 1 y 2 desviaciones estándar por encima de cero y no hay residuales más allá de 2 desviaciones estándar por encima de cero.

De la fila de residuos esperados se obtiene la distribución de frecuencia de los residuos con base en una distribución de probabilidad hipotética, norma en este caso. En la tercera fila se calcula la diferencia entre las frecuencias observadas y esperadas, se eleva al cuadrado la diferencia, se divide por la frecuencia esperada y se suman. Algebraicamente, se tiene

domingo, 29 de diciembre de 2013

Prueba de Bondad de Ajuste Ji Cuadrado(X²) (I)

Esta prueba se realiza de la siguiente forma: Primero se corre la regresión, se obtienen los residuales, ui y se calcula la desviación estándar muestral de ûi. Entonces se ordenan los residuales por rango y se ubican en diversos grupos (en el ejemplo, se han ubicado en seis grupos) correspondientes al número de desviaciones estándar desde cero, Para el ejemplo, se obtienen los siguientes datos, para su análisis.

sábado, 28 de diciembre de 2013

Prueba de normalidad

Aunque se han estudiado diversas pruebas de normalidad en la teoría, solamente se considerarán dos: (1) la prueba de bondad de ajuste ji cuadrado (2) la prueba de Jarque-Bera. Ambas pruebas utilizan los resuduaes ûi y la distribución de probabilidad ji-cuadrado.

viernes, 27 de diciembre de 2013

Evaluación de resultados del análisis de regresión

En la figura 1.4 de la introducción se esboza la anatomía de la elaboración de modelos econométricos. Ahora que se han presentado los resultados del análisis de regresión de nuestro ejemplo consumo ingreso en (5.11.1), nos gustaría cuestionar la bondad del modelo ajustado. Qué tan "bueno" es el modelo ajustado? Se necesita algún criterio para poder responder a esta pregunta.

Primero. Están los signos de los coeficientes estimados de acuerdo con las expectativas teóricas o previas? A priori, la propensión marginal a consumir (PMC) en la función consumo β2, debe ser positiva. En el presente ejemplo, lo es. Segundo, si la teoría dice que la relación no debe ser solamente positiva sino también estadísticamente significativa. Es este el caso en la presente aplicación? Como lo analizamos en la sección 5.11, la PMC no sólo es positiva sino también estadísticamente significativa, es decir, diferente de cero; el valor p del valor t estimado es extremadamente pequeño. Los mismos comentarios son aplicables al coeficiente del intercepto. Tercero, Qué tan bien explica el modelo de regresión la variación en el gasto de consumo? se puede utilizar r² para responder esta pregunta. En el ejemplo presente r² es alrededor de 0.96, el cual es un valor muy alto considerando que r² puede ser como máximo 1.

Por tanto, el modelo que se ha escogido para explicar el comportamiento de gasto de consumo parece muy bueno. Pero antes de comprometerse con él, sería interesante averiguar si el modelo satisface los supuestos del MCRLN. No se mirarán, ahora los diversos supuestos pues la simplicidad del modelo es clara. Solo hay un supuestos que podría verificar, a saber, el de normalidad del término de perturbación, ui. Recuérdese que las pruebas t y F utilizadas antes requieren que el término de error siga una distribución normal. De lo contrario, el procedimiento de prueba no será válido en muestras pequeñas, o finitas.

jueves, 26 de diciembre de 2013

Informe de resultados del análisis de regresión (II)

Al presentar los valores p de los coeficientes t estimados, se puede ver inmediatamente el nivel exacto de significancia de cada valor t estimado. Así, bajo la hipótesis nula de que el verdadero valor del intercepto poblacional es cero, la probabilidad exacta (es decir, el valor p) de obtener un valor t mayor o igual a 3.8128 es apenas de 0.0026. Por consiguiente, si rechazamos esta hipótesis nula, la probabilidad de que se cometa un error tipo 1 es de cerca de 26 en 10,000 en efecto una probabilidad muy baja. Para todo fin práctico, se puede decir que el verdadero intercepto poblacional es diferente de cero. De igual forma, el valor p del coeficiente de la pendiente estimado es cero para cualquier fin práctico. Si la verdadera PMC fuera de hecho cero, la posibilidad de obtener una PMC de 0.5091 sería prácticamente cero. Por lo cual se puede rechazar la hipótesis nula de que la verdadera PMC es cero.

En el teorema 4.7 se muestra la conexión entre los estadisticas F y t, a saber, F(1,k) = t²k Bajo la hipótesis nula de que el verdadero β2 = 0, (5.11.1)muestra que el valor F es 202.87 (para 1 g de l en el numerador y 8 g de l en el denominador) y el valor t es cercano a 14.24 (8 g de l); como se esperaba, el primer valor es igual al último valor elevado al cuadrado, salvo por errores de aproximación. La tabla ANOVA para este problema ya ha sido analizada.

miércoles, 25 de diciembre de 2013

Informe de resultados del análisis de regresión (I)

Existen diversas formas de presentar los resultados de un análisis de regresión, sin embargo, en este texto se utilizará el siguiente formato, empleando el ejemplo consumo-ingreso del capítulo 3 a manera de ilustración.
En la ecuación (5.11.1), las cifras en el primer conjunto de paréntsis son los errores estándar estimados de los coeficientes de regresión, las cifras del segundo conjunto son los valores t estimados calculados de (5.3.2) bajo la hipótesis nula de que el verdadero valor poblacional de cada coeficiente de regresión individual es cero (es decir, 3.8128 = 24.4545 + 6.4138), y las cifras en el tercer grupo son los valores p o "p-values" estimados. Por tanto, para 8 g de l la probabilidad de obtener un valor t mayor o igual a 3.8128 es 0.0026 y la probabilidad de obtener un valor t mayor o igual a de 14.2405 es alderededor de 0.00000003.

martes, 24 de diciembre de 2013

Predicción individual (II)

Comparando este intervalo con (5.10.5), se ve que el intervalo de confianza para el Yo individual es más amplio que el intervalo para el valor medio de Yo. (Por qué?) Calculando los intervalos de confianza como en (5.10.7) condicionales a los valores de X dados en la tabla 3.2, se obtiene la banda de confianza al 95% para los valores individuales Y correspondientes a estos valores de X.

Esta banda de confianza, al igual que la banda de confianza para Yo asociadas con los mosmos X,se muestran en la figura 5.6

Nótese una caraterística importante de las bandas de confianza que se muestran en la figura 5.6. La amplitud más pequeña de estas bandas se presenta cuando Xo = X. Por qué? Sin embargo, ésta aumenta considerablemente a medida que Xo se aleja de X. Por qué? Este cambio sugeriría que la capacidad de predicción de la línea de regresión muestral histórica decrece a medida que Xo se aleja progresivamente de X. Por consiguiente, se debe ser cauteloso al "extrapolar la línea" de regresión histórica para predecir E(Y|Xo) o Yo asociado con una Xo dado, que está muy alejado de la medida muestral X.


lunes, 23 de diciembre de 2013

Predicción individual (I)

Si nuestro interés está en predecir un valor individual Y, Yo correspondiente a un valor dado X, digamos, Xo, entonces, como se muestra en el apendice, el mejor estimador lineal insesgado de Yo está dado también por (5.10.1) pero su varianza es la siguiente.

Puede demostrarse además que Yo también sigue una distribución normal con media y varianza dadas por (5.10.1) y (5.10.6), respectivamente. Sustituyendo σ² desconocido por σ², se cumple que





también sigue una distribución t. Por consiguiente, la distribución t puede utilizarse para hacer inferencia sobre el verdadero Yo. Al continuar con nuestro ejemplo consumo-ingreso, se ve que la predicción puntual de Yo es 75.3645, igual a Yo y su varianza es 52.6349 (el lector debe verificar con cálculo). Por consiguiente, el intervalo de confianza al 95% para Yo correspondiente a Xo = 100 es

domingo, 22 de diciembre de 2013

Predicción Media (II)

Por tanto, dada Xo = 100, en muestreo repetido, en 95 de cada 100 intervalos como (5.10.5) estará incluido el verdadero valor medio; la mejor estimación del verdadero valor medio es, por supuesto, la estimación puntual 75.3645.

Si se obtienen intervalos de confianza al 95% como (5.10.5) para cada uno de los valores de X dados en la tabla 3.2, se obtiene lo que se conoce como el intervalo de confianza, o banda de confianza, para la función de regresión poblacional, que se presenta en la figura 5.6

sábado, 21 de diciembre de 2013

Predicción Media (I)

Al reemplazar σ² desconocido por su estimador insesgado σ², se cumple que la variable.




sigue una distrubición t con n-2 g de l. La distribución t puede ser utilizada por consiguiente para construir intervalos de confianza para el verdadero E(Yo|Xo) y para hacer pruebas de hipótesis acerca de tal valor de manera usual, a saber.

viernes, 20 de diciembre de 2013

Predicción Media

Para obtener las ideas, supóngase que Xo=100 y se desea predecir E(Y|Xo =100). Ahora, puede demostrarse que la regresión historica (3.6.2) proporciona la estimación puntual de esta predicción media de la siguiente forma:



donde Yo = estimador de E(Y|Xo). Puede demostrarse que este predictor puntual es el mejor estimador lineal e insesgado (MELI)

Puesto que Yo es un estimador, es probable que éste sea diferente de su verdadero valor. La diferencia entre los dos valores dará alguna idea sobre el error de predicción o de pronostico. Para evaluar este error, es necesario encontrar la distribución muestral de Yo. En el apéndice 5A, sección 5A.3, se demuestra que en la ecuación (5.10.1), Yo está normalmente distribuida con media (β1 + β2Xo) y con varianza dada por la siguiente fórmula:

jueves, 19 de diciembre de 2013

Aplicación del análisis de regresión: Problema de Predicción

Con base en los datos muestrales de la tabla 3.2, se obtuvo la siguiente regresión muestral.

Yi = 24.4545 + 0.5091Xi

donde Yt es el estimador del verdadero E(Yi) correspondiente a X dado. Qué uso se puede dar a esta regresión histórica? Un uso es "predecir" o "pronosticar" el gasto de consumo futuro Y correspondiente a algún nivel dado de ingreso X. Ahora, hay dos clases de predicciones: (1) la predicción del valor de la media condicional de Y correspondiente a un valor escogido X, por ejemplo Xo, que es el punto sobre la línea de regresión poblacional misma y (2) predicción de un valor individual Y correspondiente a Xo. Se llamarán estas dos predicciones la predicción media y la predicción individual.

miércoles, 18 de diciembre de 2013

Análisis de regresión y análisis de varianza (V)

Recuérdese el teorema 4.7 de la sección 4.5, que plantea que el cuadrado del valort con k g de l es un valor F con un g de l en el numerador y k g de l en el denominador. Para el ejemplo consumo ingreso, si se supone Ho: β2 = 0, entonces de (5.3.2) puede verificarse fácilmente que el valor t estimado es 14.24. Este valor t tiene 8 g de l. Bajo la misma hipótesis nula, el valor F er 202.87 con 1 y 8 gde l. De donde (14.24)^2 = valor F, excepto por errores de aproximación.

Así, las pruebas t y F proporcionan dos formas alternas, pero complementarias, de probar la hipótesis nula que β2 = 0. Si este es el caso, por qué no simplemente confiar en la prueba t y no preocuparse por la prueba F y por el análisis de varianza que lo acompaña? Para el modelo de dos variables, realmente no hay necesidad de recurrir a la prueba F. Pero cuando se considere el tema de la regresión múltiple, se verá que la prueba F tiene diversas aplicaciones interesantes que hacen que sea un método muy útil y poderoso de demostrar hipótesis estadísticas.



martes, 17 de diciembre de 2013

Análisis de regresión y análisis de varianza (IV)

(Obsérvese que β2 y σ^2 al lado derecho de estas ecuaciones son los verdaderos parámetros). Por consiguiente, si β2, es en realidad cero,ambas ecuaciones (5.9.2) y (5.9.3) proporcionan estimaciones idénticas del verdadero σ^2. En esta situación, la variable explicativa X no tiene influencia lineal alguna sobre Y y toda la variación en Y es explicada por las perturbaciones aleatorias ui. De otra parte si, β2 es diferente de cero, (5.9.2) y (5.9.3) serán diferentes y parte de la variación en Y se atribuirá a X. Por consiguiente, la razón F de (5.9.1) constituye una prueba sobre la hipótesis nula Ho:β2 = 0. Puesto que todas las cantidades que hacen parte de esta ecuación pueden ser obtenidas a partir de la muestra disponible, esta razón F constituye un estadístico de prueba para verificar la hipótesis nula de que el verdadero β2 es igual a cero. Todo lo que debe hacerse es calcular la razón F y compararla con el valor crítico F obtenida de la tabla F al nivel de significancia seleccionado, u obtener el valor p del estadístico F calculado.

A manera de ilustración, se continúa con el ejemplo consumo-ingreso. La tabla ANOVA para este ejemplo se presenta en la Tabla 5.4. El valor F calculado es 202.87. El valor p de este estadístico F correspondiente a 1 y 8 g de l no puede se obtenido de la tabla F dada en el apéndice D pero, utilizando las tablas estadísticas electrónicas puede demostrarse que el valor p es 0.0000001, en efecto una probabilidad muy pequeña. Si se decide escoger el enfoque de nivel de significancia para la prueba de hipótesis y fijar α en 0.01, o en un nivel del 1%, se puede ver que la F calculada de 202.87 es obviamente significativa a ese nivel. Por consiguiente, si se rechaza la hipótesis nula de que β2 =0, la probabilidad de cometer un error tipo 1 es muy pequeña. Para todos los fines prácticos, la muestra no puedo haber provenido de una población con un valor β2 igual a cero y se puede concluir con gran confianza que X, el ingreso, afecta Y, el gasto de consumo.

lunes, 16 de diciembre de 2013

Análisis de regresión y análisis de varianza (III)

Si se supone que las perturbaciones ui están normalmente distribuidas y H0: β2=0, puede demostrarse que la F de (5.9.1) satisface las condiciones del teorema 4.6 (sección 4.5) y, por consiguiente presenta la distribución F con 1 y n-2 g de l.

Qué uso puede hacerse de la razón F anterior? Puede demostrarse que


domingo, 15 de diciembre de 2013

Análisis de regresión y análisis de varianza (II)

Reorganícemos la sumas de cuadrados y sus g de l asociadas en la tabla 5.3, que es la forma estándar de la tabla AOV, denominada algunas veces la tabla ANOVA. Dada la información de la tabla 5.3, considérese ahora la siguiente variable:

sábado, 14 de diciembre de 2013

Análisis de regresión y análisis de varianza (I)

En esta sección se estudiará el análisis de regresión desde el punto de vista del análisis de varianza y se introducirá al lector hacia una forma complementaria de mirar el problema de la inferencia estadística.

En el capítulo 3, sección 3.5, se desarrolló la siguiente identidad



es decir, STC = SEC + SRC, la cual descompone la suma total de cuadrados (STC) en dos componentes: la suma explicada de cuadrados (SEC) y al suma de residuales al cuadrado (SRC). Un estudio de estos componentes de STC se conoce como el análisis de varianza (ANOVA) desde el punto de vista de la regresión.

Asociado con toda suma de cuadrados están sus g de l, es decir, el número de observaciones independientes sobre las cuales está basada. La STC tiene n-1 g de l porque se pierde 1 g de l en el cálculo de la media muestral Y. La SRC tiene n-2 g de l.(Por qué) (Nota: Esto es cierto solamente para el modelo de regresión con dos variables con presencia del intercepto β1). SEC tiene 1 g de l (de nuevo, esto es cierto solamente para el caso de dos variables), lo cual se deduce del hecho de que SEC = B2^2Σx²i es una función β2 ólo si Σx²i es conocida.

viernes, 13 de diciembre de 2013

Selección entre los enfoques del intervalo de confianza y la prueba de significancia en la prueba de hipótesis

En la mayor parte de los análisis económicos aplicados, la hipótesis nula postulada hace las vece de comodín, y el objetivo del trabajo empírico es tumbarlo, es decir, rechazar la hipótesis nula. Por tanto, en nuestro ejemplo consumo-ingreso, la hipótesis nula de que la PMC, β2 = 0 es claramente absurda, pero con frecuencia la utilizamos para ejempleficar los resultados empíricos. Parece ser que los editores de publicaciones especializadas de renombre no encuentran emocionante publicar un trabajo empírico que no rechace la hipótesis nula. De alguna manera, como noticia es más novedoso el hallazgo de que la PMC sea estadísticamente diferente de cero que el hallazgo de que sea igual, a digamos !0.7.

Por tanto, J. Bradford De Long y Kevin Lang sostienen que es mejor para los economistas.

...concentrarse en las magnitudes de los coeficientes y dar informes sobre los niveles de confianza y no sobre las pruebas de significancia. Si todas, o casi todas, las hipótesis nulas son falsas, tiene poco sentido concentrarse en averiguar si un estimado es o no indistinguible de su valor predicho bajo la hipótesis nula. En lugar de esto, deseamos averiguar cuáles modelos son buenas aproximaciones, para lo cual es necesario que conozcamos los rangos de los valores de los parámetros excluidos por los estimados empíricos.

En resumen, estos autores prefieren el enfoque del intervalo de confianza al enfoque de la prueba de significancia. El lector puede desear tener este consejo en mente.



jueves, 12 de diciembre de 2013

Significancia estadística versus significancia práctica (II)

El punto de toda esta exposición es que no se debe confundir la significancia estadística con la significancia práctica o económica. Como lo afirma Goldberger:

Cuando una hipótesis nula, digamos β1 = 1, se especifica, lo que se busca es que βi esté cercano a 1, tan cerca que para todos los propósitos prácticos pudiera ser tratado como si fuera 1. Pero el que 1.1. sea "prácticamente lo mismo que" 1.0 es un asunto de economía, no de estadística. No se puede resolver el asunto apoyándose en una prueba de hipótesis porque el estadístico de prueba [t=](bi-1)/σbi mide el coeficiente estimado en unidades de errores estándar, las cuales no tienen significado para medir el parámetro económico Bi - 1. Puede ser una buena idea reservar el término "significancia" para el concepto estadístico, adoptando la palabra "sustancial" para el concepto económico.

El punto expresado por Goldelberger es importante. A medida que el tamaño de la muestra se hace muy grande, la importancia de los temas relacionados con significancia estadística se hace mucho menor pero los temas de significancia económica adquieren importancia crítica. En efecto, puesto que con muestras grandes casi todas las hipótesis nulas serán rechazadas, puede haber estudios en los cuales la magnitud de los valores estimados puntuales pueda ser lo único importante.

miércoles, 11 de diciembre de 2013

Significancia estadística versus significancia práctica (I)

Recuérdese el ejemplo consumo-ingreso y ahora planteése que la verdadera PMC es 0.61 (H0: β2 = 0.61). Basados en el resultado muestral de β2 = 0.5091, se obtuvo el intervalo (0.4268, 0.5914) al 95% de confianza. Puesto que este intervalo no incluye 0.61, es posible decir, con un 95% de confianza, que el valor estimado es estadísticamente significativo, es decir, significativamente diferente de 0.61.

Pero, Cuál es el significado práctico o real del hallazgo? Es decir, Qué diferencia existe entre asignar a la PMC, un valor de 0.61 o uno de 0.5091? Es la diferencia de 0.1009 entre las dos PMC así de importante en la práctica?

La respuesta a esta pregunta depende de lo que en realidad se haga con estos estimados. Por ejemplo, de la macroeconomía se sabe que el multiplicador del ingreso es 1/(1-PMC). Por tanto, si la PMC e 0.5091, el multiplicador es 2.04, pero será 2.56 si la PMC es igual a 0.61. Esto es, si el gobierno fuera a incrementar su gasto en US$1 para sacar la economía de una recesión, el ingreso aumentaría en ese caso en US$2.04 si la PMC es 0.5091 pero lo hará en US$2.56 si la PMC es 0.61. Y esa diferencia podría ser crucial para reactivar la economía.

Nivel exacto de significancia: Valor ρ o "P-value" (II)

Como se anotó anteriormente, si los datos no apoyan la hipótesis nula, el ︱t︱ obtenido bajo tal hipótesis nula será "grande" y, por consiguiente, el valor ρ de obtener tal ︱t︱ será "pequeño". En otras palabras, para un tamaño de muestra dado, a medida que aumenta ︱t︱, el valor p se reduce y se puede, por consiguiente, rechazar la hipótesis nula con mayor confianza.

Cuál es la relación entre el valor p y el nivel de significancia α? Si se adquiere el hábito de fijar α igual al valor p de un estadístico de prueba (es decir, el estadístico t), entonces no hay conflicto entre estos dos valores. Expresado en otros términos, es mejor no fijar α a algún nivel de forma arbitraria sino escoger simplemente el valor p del estadístico de prueba. Es preferible dejar que el lector decida si debe rechazar la hipótesis nula al valor p dado. Si, en una aplicación, el valor p de un estadístico de prueba resulta ser, por ejemplo, 0.145 o 14.5% y si el lector desea rechazar la hipótesis nula a este nivel(exacto) de significancia, entonces lo puede hacer. No está mal tomar el riesgo de equivocarse un 14.5% de las veces si se rechaza la hipótesis nula verdadera. De manera similar como en el ejemplo de consumo-ingreso, no está mal si el investigador desea escoger un valor p cercano al 0.02% y no tomar el riesgo de equivocarse en más de 12 veces de cada 10,000!. Después de todo, algunos investigadores pueden ser amantes del riesgo y otros opuestos a él!

En el resto de este texto, se citará generalmente el valor p de un estadístico de prueba dado. Algunos lectores pueden desear fijar α a algún nivel y rechazar la hipótesis nula si el valor p es menor que α. Es su opción.

lunes, 9 de diciembre de 2013

Nivel exacto de significancia: Valor ρ o "P-value" (I)

Como recién se anotó, el talón de Aquiles del enfoque clásico de la prueba de hipótesis es su arbitrariedad en la selección de α. Una vez se ha obtenido un estadístico de prueba (es decir el estadístico t) en un ejemplo dado, por qué no consultar sencillamente la tabla estadística apropiada y encontrar la probabilidad real de obtener un valor del estadístico de prueba tan grande o mayor que el obtenido en el ejemplo? Esta probabilidad se denomina el valor ρ (es decir, el valor de probabilidad), también conocido como el nivel observado o exacto de significancia o la probabilidad exacta de cometer un error tipo I. Más técnicamente, el valor ρ está definido como el nivel de significancia más bajo al cual puede rechazarse una hipótesis nula.

Para ilustrar, recuérdese el ejemplo consumo-ingreso. Dad la hipótesis nula de que la verdadera PMC es 0.3, se obtuvo un valor t de 5.86 en (5.7.4), Cual es el valor ρ o "p-value" de obtener un valor t igual o superior a 5.86? En la tabla t del apéndice D, se observa que para 8 g de l la probabilidad de obtener tal valor t debe estar muy por debajo de 0.001 (una cola) o 0.002 (dos colas). Mediante el uso del computador, puede mostrarse que la probabilidad de obtener un valor t mayor o igual a 5.86 (8 g de l) es alrededor de 0.000189. Este valor ρ del estadístico t observado. Este nivel de significancia observado o exacto del estadístico t es mucho menor que los niveles de significancia del 1%, del 5% o del 10% fijados convencional y arbitrariamente. De hecho, si fueramos a utilizar el valor ρ recién calculado y rechazar la hipótesis nula que la verdera PMC es 0.3, la probabilidad de que se cometa un error tipo I es sólo de cerca de 0,02%, es decir, solamente 2 en 10,000!

domingo, 8 de diciembre de 2013

Selección del nivel de significancia α (II)

Desde luego, pocas veces se conocen los costos de cometer los dos tipos de error. Por tanto, los econometristas tienen por costumbre fijar el valor de α a niveles del 1, el 5 o el 10% como máximo y escogen un estadístico de pruebas que minimice la probabilidad de cometer un error tipo II. Puesto que uno menos la probabilidad de cometer un error tipo II se conoce como la potencia de la prueba, este procedimiento equivale a maximizar esa potencia de la prueba.

Pero todo este problema relacionado con la selección del valor apropiado de α puede ser evitado si se utiliza lo que se conoce como el "P-value" del estadístico de prueba, que se analiza a continuación.

sábado, 7 de diciembre de 2013

Selección del nivel de significancia α (I)

Del análisis adelantado hasta el momento, debe tenerse claro que el hecho de rechazar o no una hipótesis nula depende en forma crítica de α, el nivel de significancia o probabilidad de cometer error tipo I, o sea, la probabilidad de rechazar la hipótesis cuando es verdadera. En un blog introductorio como éste no es posible analizar a fondo la razón por la cual se escogen los niveles de significancia 1,5 o 10%, ya que esto nos llevaría al campo de la toma de decisiones estadísticas, que de por sí es una disciplina completa. Sin embargo, puede ofrecerse un breve resumen. Como se estudió en el apendice A, para un tamaño de muestra dada, si tratamos de reducir un error tipo I, un error tipo II aumenta y viceversa. Es decir, dado el tamaño de la muestra, si tratamos de reducir la probabilidad de rechazar la hipótesis cuando es verdadera, se puede aumentar al mismo tiempo la probabilidad de aceptarla cuando es falsa. Por tanto, dado el tamaño de la muestra, existe una conexión de intercambio entre estos dos tipos de error. Ahora, la única forma en la cual se puede decidir sobre esta conexión es encontrar los costos relativos de los dos tipos de error. Entonces.

Si el error de rechazar la hipótesis nula cuando es verdadera (error tipo I) es costoso en comparación con el error de no rechzar la hipótesis nula cuando es falsa (error tipo II), será razonable fijar la probabilidad de ocurrencia del primer tipo de error a niveles bajos. Si, por otra parte, el costo de incurrir en el error tipo I es bajo comparado con el costo de cometer el error tipo II, se justificará que la probabilidad del primer tipo de error sea alta (rebajando así la posibilidad en el segundo tipo de error)

viernes, 6 de diciembre de 2013

Formación des hipótesis nula y alterna

Dadas las hipótesis nula y alterna, probar su significancia estadística no debe seguir siendo un misterio. Pero, Cómo se formulan estas hipótesis? No existen reglas específicas. Muy frecuentemente el fenómeno bajo estudio sugerirá la forma de la hipótesis nula y alterna. Por ejemplo, en el ejercicio 5.16 se pide estimar la línea del mercado de capitales (LMC) de la teoría de portafolio, que postula que Ei = β1 + β2σi donde E = retorno esperado sobre el portafolio y σ = la desviación estándar del retorno, una medida de riesgo. Puesto que se espera que el retorno y el riesgo estén relacionados positivamente entre mayor sea el riesgo, más alto será el retorno; la hipótesis alterna natural a la hipótesis nula, β2 = 0, sería β2 > 0. Es decir, no se considerar'n valores de β2 menores de cero.

Pero considérese el caso de la demanda de dinero. Como se demostrará más adelante, uno de los determinantes importantes de la demanda de dinero es el ingreso. Estudios anteriores de las funciones de demanda de dinero han mostrado que la elasticidad ingreso de la demanda de dinero (el cambio porcentual en la demanda de dinero por un cambio porcentual de 1% en el ingreso) ha estado típicamente dentro de un rango de 0.7 a 1.3. Por consiguiente, en un nuevo estudio de la demanda de dinero, si se postula que el coeficiente β2 de la elasticidad ingreso es 1, la hipótesis alterna podría ser que β2 ≠1, una hipótesis alterna de dos lados.

Por tanto, las expectativas teóricas o el trabajo empírico previo o ambos pueden ser la base para la formulación de hipótesis. Sin embargo, sin importar la forma como se postulen las hipótesis, es extremadamente importante que el investigador plantee estas hipótesis antes de llevar a cabo la investigación empírica. De lo contrario, él o ella serán culpables de razonamientos circulares o de profecias autocumplidas. Es decir, si se formulara la hipótesis después de examinar los resultados empíricos, podría presentarse la tentación de formular la hipótesis de tal manera que justifique los resultados obtenidos. Una práctica así debe ser evitada a cualquier costo, al menos para salvar la objetividad científica.

jueves, 5 de diciembre de 2013

Hipótesis nula o "cero" y regla práctica "2-t" (II)

Ahora, si se examina la tabla t dada más adelante, se ve que para g de l alrededor de 20 o más, un valor calculado t mayor que 2 (en términos absolutos), es decir, 2.1, es estadísticamente significativo al nivel del 5%, lo cual implica rechazo de la hipótesis nula. Por consiguiente, si se encuentra que para 20 o más g de l el valor t calculado es, digamos, 2.5 o 3, ni siquiera se tiene que consultar la tabla t para asegurar la significancia del coefciente de la pendiente estimado. Por supuesto, siempre puede referirse a la tabla t para obtener el nivel preciso de significancia. Sin embargo, esto debe hacerse siempre cuando los g de l sean inferiores, por ejemplo, a 20.

A propósito, obsérvese que si se está probando la hipótesis de un lado β2 = 0 va β2 > 0 o β2 <0 , entonces se debe rechazar la hipótesis nula si




Si se fija α en 0.05, entonces la tabla t se observa que, para 20 o más g de l, un valor t mayor que de 1.73 es estadísticamente significativo al nivel de significancia del 5% (de una cola). Por lo tanto siempre que un valor t exceda, por ejemplo 1.9 (en términos absolutos) y los g de l sean 20 o más, no es necesario consultar la tabla t para la significancia estadística del coeficiente observado. Es claro que, si se escoge α igual a 0.01 o cualquier otro nivel, se tendrá que decidir sobre el valor apropiado de t como valor crítico de referencia; el valor deberá ser capaz de hacer eso.

miércoles, 4 de diciembre de 2013

Hipótesis nula o "cero" y regla práctica "2-t"

La hipótesis nula que es objeto frecuente de prueba en el trabajo empírico es Ho: β2 = 0, es decir, el coeficiente de la pendiente es cero. Esta hipótesis nula de "cero" es un mecanismo para establecer su Y tiene relación con X, la variable explicativa. Si, para empezar, no existe relación entre Y y X, entonces la prueba de hipótesis tal como β2 = 0.3 o cualquier otro valor no tiene significado.

Esta hipótesis nula puede probarse fácilmente mediante los enfoques de intervalos de confianza o prueba t estudiados en las secciones anteriores. Pero, muy frecuentemente, tales pruebas formales puede abreviarse adoptando la regla de significancia "2-t" que puede expresarse así:

martes, 3 de diciembre de 2013

Prueba de hipótesis: Algunos aspectos prácticos

El significado de "aceptar" o "rechazar" una hipótesis.

Si, con base en una prueba de significancia, por ejemplo, la prueba t, se decide "aceptar" la hipótesis nula, todo lo que se está diciendo es que con base en la evidencia dada por la muestra, no existe razón para rechazarla: no se está diciendo que la hipótesis nula sea verdadera con absoluta certeza. Por qué? para responder esto, téngase en cuenta el ejemplo consumo-ingreso y supongase que Ho: β2 (PMC) = 0.50. Ahora, el valor estimado de la PMC es β2 = 0.5091 con un se (β2) = 0.0357. Entonces con base en la prueba t, se encuentra que t = (0.5091-0.50)/0.0357= 0.25, que es no significativo, es decir, para un α = 5%. Por consiguiente, se dice que "aceptamos" Ho. Pero ahora supóngase Ho: β2 = 0.48. Aplicando la prueba t, se obtiene t = (0.5091 -0.48)/0.0357 = 0.82, el cual tampoco es estadísticamente significativo. Entonces, se dice ahora que "se acepta" esta Ho. Cuál de estas dos hipótesis nulas es la "verdadera"? No se sabe. Por consiguiente, en la "aceptación" de una hipótesis nula se debe tener presente siempre que pueda existir otra hipótesis nula igualmente compatible con los datos. Es preferible, por tanto, decir que se puede aceptar la hipótesis nula en lugar de decir que se la acepta. Mejor aún.

.... de la misma manera que un corte pronuncia un veredicto de "no culpable" en lugar de decir "inocente", así la conclusión de un estadístico de prueba es la de "no rechazar" en lugar de "aceptar"

lunes, 2 de diciembre de 2013

Prueba de significancia para σ²: La prueba X²

Como otro ejemplo de la metodología de las pruebas de significancia, considérese la siguiente variable.


la cual, como se anotó previamente, sigue una distribución X² con n-2 g de l. Para el ejemplo hipotético, σ² = 42.1591 y g de l = 8. Si se postula que Ho: σ² = 85 vs H1: σ² ≠ 85, la ecuación (5.4.1) proporciona al estadístico de prueba para Ho. Sustituyendo los valores apropiados en (5.4.1), puede encontrarse que bajo Ho, X² = 3.97. Si se supone α = 5% los valores críticos X² son 2.1797 y 17.5346. Puesto que el X² calculado cae dentro de estos límites, los datos apoyan la hipótesis nula y no se la rechaza. Este procedimiento de prueba se denomina la prueba de significancia ji cuadrado. El enfoque de la prueba de significancia X² para la prueba de hipótesis se resumen en la tabla del siguiente post.


domingo, 1 de diciembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (VI)

Un resumen del enfoque de la prueba t de significancia para la prueba de hipótesis se presenta en la tabla 5.1


sábado, 30 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (V)

Puesto que se utiliza la distribución t, el anterior procedimiento de prueba es llamado aproximadamente la prueba t. En el lenguaje de las pruebas de significancia, se dice que un estadistico es estadisticamente significativo si el valor del estadístico de prueba cae en la región crítica. En este caso, la hipótesis nula se rechaza. De la misma manera, se dice que una prueba es estadísticamente no significativa si el valor de el estadístico de prueba cae en la región de aceptación. En esta situación, la hipótesis nula no se rechaza. En nuestro ejemplo, la prueba t es significativa y por tanto se rechaza la hipótesis nula.

Antes de concluir la exposición de pruebas de hipótesis, obsérvese que el procedimiento de prueba presentado se conoce como el procedimiento de las pruebas de significancia de dos lados, o dos colas, ya que se consideran las dos colas extremas de la distribución de probabilidades relevante como regiones de rechazo, y se rechaza la hipótesis nula si case en cualquiera de ellas. Esto sucede porque la H1 era una hipótesis compuesta de dos lados; β2 ≠ 0.3. significa que β2 es mayor que o menor que 0.3. Supóngase que la experiencia sugiere que la PMC sea mayor que 0.3. En este caso se tiene: Ho: β2 ≤ 0.3 y H1: β2 > 0.3. Aunque H1 es aún una hipótesis compuesta, tiene ahora tan solo un lado. Para probar esta hipótesis, se utiliza una prueba de una cola (la cola derecha), como se observa en la figura 5.5 (Véase también el análisis en la sección 5.6)

El procedimiento de prueba es similar al anterior excepto que el límite de confianza superior o valor crítico corresponde ahora a t ∞ = t0.5 es decir, al nivel del 5%. Como lo indica la figura 5.5, en esta caso no es preciso considerar la cola inferior de la distribución t. La utilización de una prueba de significancia de una o dos colas dependerá de la forma como esté formulada la hipótesis alterna, la cual, a su vez, puede depender de algunas consideraciones a priori o de experiencia empirica previa.

viernes, 29 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (IV)

En la práctica, no hay necesidad de estimar (5.7.2) explícitamente. Se puede calcular el valor de t del centro de la doble desigualdad dada en (5.7.1) y ver si esta cae entre los valores críticos t o por fuera de estos. Para el ejemplo.

t = (0.5091 - 0.3)/0.0357 = 5.86

es claro que este valor se encuentra en la región crítica de la figura 5.4. La conclusión se mantiene; es decir, rechazamos Ho.

Obsérvese que si el β2(=β2) estimado es igual al β2 hipotético, es decir, al valor del β2 planteado bajo Ho, el valor t en (5.7.4) será cero. Sin embargo, en la medida en que el valor de β2 estimado se aleje del valor hipotético de β2, el ︱t︱ (es decir, el valor absoluto de t; nota: t puede ser positivo o negativo) será cada vez mayor. Por consiguiente, un valor "grande" de ︱t︱será evidencia en contra de la hipótesis nula. Siempre se puede utilizar la tabla t para determinar si un valor t particular es grande o pequeño; la respuesta, como se sabe, depende de los grados de libertad igual que de la probabilidad del error tipo I que se esté dispuesto a aceptar. Como se puede observar en la tabla t dada en el apéndice D, para cualquier valor dado de g de l, la probabilidad de obtener un valor de ︱t︱ mayor o igual a 1.725 es 0.10 o 10%, pero para los mismos g de l, la probabilidad de obtener un valor ︱t︱ mayor o igual a 3.552 es tan solo 0.002 o 0.2%.






jueves, 28 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (III)

La estrecha conexión entre los enfoques de intervalo de confianza y prueba de significancia para realizar la prueba de hipótesis puede verse ahora comparando (5.3.5) con (5.7.2). En el procedimiento de intervalo de confianza se trata de establecer un rango o intervalo que tenga una probabilidad determinada de contener el verdadero, aunque desconocido β2, mientras que en el enfoque de prueba de significancia se somete a hipótesis algún valor de β2 y se trata de ver si el β2 calculado se encuentra dentro de límites (de confianza) razonables alrededor del valor sometido a hipótesis.

Considérese una vez más el ejemplo de consumo-ingreso. Se sabe que β2 = 0.5091, ee (β2) = 0.0357, y g de l = 8. Si se supone α = 5%, tα/2 = 2.306.Si se plantea que Ho: β2 = β2* = 0.3 y H1: β2 ≈ 0.3, se convierte en

Pr(0.2177 ≤ β2 ≤ 0.3823) = 0.95 (5.7.3)


como se muestra en el diagrama de la figura 5.3. Puesto que el β2 se encuentra en la región crítica, se rechaza la hipótesis nula de que el vardadero β2 = 0.3/



miércoles, 27 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (II)

Reorganizando (5.7.1), se obtiene

que da el intervalo en el cual se encontrará β2 con probabilidad 1-α, dado β2 = β2*. En el lenguaje de prueba de hipótesis, el intervalo de confianza al 100(1-α)% establecido en (5.7.2) es conocido como la región de aceptación (de la hipótesis nula) y la(s) región(es) que queda(n) por fuers del intervalo de confianza es(son) llamada(s) la(s) región(es) de rechazo (de la Ho) o la(s) región(es)critica(s). Como se anotó previamente, los límites de confianza dados por los puntos extremos del intervalo de confianza son llamados también valores críticos.

martes, 26 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (I)

Un enfoque alternativo, pero complementario al método de intervalos de confianza para probar hipótesis estadísticas es el enfoque de la prueba de significancia desarrollado en forma independiente por R.A. Fisher y conjuntamente por Neyman y Pearson. En términos generales, una prueba de significancia es un procedimiento mediante el cual se utilizan los resultados muestrales para verificar la verdad o falsedad de una hipótesis nula. La idea básica detrás de las pruebas de significancia es la de un estadístico de prueba (un estimador) y su distribución muestral bajo la hipótesis nula. La decisión de aceptar o rechazar la Ho se lleva a cabo con base en el valor del estadístico de prueba obtenido a partir de los datos disponibles.

Como ilustración, recuérdese que, bajo el supuesto de normalidad, la variable




sigue la distribución t con n-2 g de l. Si el valor del verdadero β2 es especificado bajo la hipótesis nula, el valor t de (5.3.2) puede ser calculado fácilmente a partir de la muestra disponible y, por consiguiente, puede servir como estadístico de prueba. Debido a que este estadístico de prueba sigue una distribución t, pueden hacerse afirmaciones sobre los intervalos de confianza como la siguiente:

donde β2* es el valor de β2 bajo Ho donde -tα/2 y tα/2 son los valores de t(los valores críticos de t) obtenidos de la tabla t para un nivel de significancia (α/2) y n - 2 g de l.

lunes, 25 de noviembre de 2013

Prueba de un lado o de una cola

Algunas veces tenemos una gran expectativa a priori o teórica (o existen expectativas basadas en algún trabajo empírico previo) de que la hipótesis alterna es de un lado o de una dirección, en lugar de ser de dos lados o dos colas, como se acaba de analizar. Así, para el ejemplo consumo-ingreso, se puede postular que:

H0:β2 ≤ 0.3 y H1: β2 > 0.3
Puede ser que la teoría económica o el trabajo empírico previo sugieran que la propersión marginal a consumir es mayor de 0.3. Aunque el procedimiento para probar esta hipótesis puede derivarse fácilmente de (5.3.5), el mecanismo real está mejor explicado en términos del enfoque de prueba de significancia analizado a continuación.


domingo, 24 de noviembre de 2013

Prueba de hipótesis: Enfoque del intervalo de Confianza (II)

Siguiendo esta regla, para el ejemplo hipotético, H0: ß2 = 0.3 es claro que éste se encuentra pro fuera del intervalo de confianza al 95% dado en (5.3.9). Por consiguiente, se puede rechazar la hipótesis de que la verdadera PMC sea 0.3 con 95% de confianza. Si la hipótesis nula fuera cierta, la probabilidad de obtener por casualidad un valor de PMC igual a 0.5091 es, como máximo de 5% una probabilidad pequeña.

Es estadística, cuando se rechaza la hipótesis nula, se dice que el hallazgo es estadísticamente significativo. Por otra parte, cuando no se hace, se dice que el hallazgo no es estadísticamente significativo.

Algunos autores utilizan frases como "altamente significativo desde un punto de vista estadístico". Con este término, generalmente quieren decir que cuando ellos rechazan la hipótesis nula, la probabilidad de cometer un error tipo I (por ejemplo, α) es un número pequeño, usualmente 1% Pero, como lo demostrará el análisis del valor p en la sección 5.8, es mejor dejar que el investigador califique el hallazgo estadístico como "significativo", "moderadamente significativo", o "altamente significativo"

sábado, 23 de noviembre de 2013

Es el β2 compatible con H0?

Para responder a esta pregunta, se hace referencia al intervalo de confianza (5.3.9). Se sabe que, en el largo plazo, intervalos como (0.4268, 05914) contendrán el verdadero β2 con una probabilidad del 95%.

En consecuencia, en el largo plazo (es decir, en muestreo repetido) tales intervalos proporcionan un rango límites dentro de los cuales pueden encontrarse el verdadero β2 con un coeficiente de confianza de, digamos 95%. Por tanto, el intervalo de confianza proporciona un conjunto de hipótesis nulas posibles. Poro consiguiente, si β2 bajo H0 se encuentra dentro del intervalo de confianza 100(1-α )%, no se rechaza la hipótesis nula; si esté se encuentra por fuera del intervalo, se puede rechazar. Este rango se ilustra esquematicamente en la figura 5.3

Regla de decisión: Constrúyase un intervalo de confianza para β2 al 100(1-α )% Si el β2 bajo H0 se encuentra dentro de este intervalo de confianza, no rechace H0, pero si está por fuera del intervalo, rechace H0.

viernes, 22 de noviembre de 2013

Prueba de hipótesis: Enfoque del intervalo de Confianza (I)

Prueba de dos lados o dos colas.

Para ilustrar el enfoque del intervalo de confianza, una vez más se hace referencia al ejemplo consumo-ingreso. Como se sabe, la propensión marginal a consumir estimada (PMC),β2, es 0.5091.

Supóngase que se postula que

H0: β2 = 0.3
H1: β2 ≠ 0.3

es decir, bajo la hipótesis nula, la verdadera PMC es 0.3 pero, según la hipótesis alterna, su valor es menor o mayor de 0.3. La hipótesis nula es una hipótesis simple, mientras que la hipótesis alterna es compuesta; y en la práctica, se conoce como hipótesis de dos lados o de dos colas. Muy frecuentemente dicha hipótesis alterna de dos lados refleja el hecho de que no se tiene una expectativa fuerte a priori o teórica sobre la dirección en la cual debe moverse la hipótesis alterna con respecto a la hipótesis nula.

jueves, 21 de noviembre de 2013

Prueba de hipótesis: Comentarios generales (II)

La teoría de prueba de hipótesis se preocupa por el diseño de reglas o procedimientos que permitan decidir si se rechaza o no la hipótesis nula. Hay dos enfoques mutuamente complementarios para diseñar tales reglas, a saber: el intervalo de confianza y la prueba de significancia. Estos dos enfoques plantean que la variable (el estadístico o estimador) bajo consideración sigue alguna distribución de probabilidad y que la prueba de hipótesis establece afirmaciones sobre el (los) valor (es) del (los) parámetro(s) de tal distribución. Por ejemplo, se sabe que con el supuesto de normalidad β2 está normalmente distribuida con media igual a β2 y varianza dada por (4.3.4). Si formulamos la hipótesis de que β2 = 1, se está haciendo una afirmación sobre uno de los parámetros de la distribución normal, por ejemplo, la media. La mayoría de las hipótesis estadísticas que se encuentran en este texto serán de este tipo, haciendo afirmaciones sobre uno o más valores de los parámetros de algunas distribuciones de probabilidad tales como la normal, F,t, o X².

miércoles, 20 de noviembre de 2013

Prueba de hipótesis: Comentarios generales (I)

Habiendo estudiado el problema de la estimación puntual y de intervalos, se considerará ahora el tema de la prueba de hipótesis. En esta sección se analizarán brevemente algunos aspectos generales de este tema.

El problema de la prueba de hipótesis estadística puede plantearse sencillamente de la siguiente manera: Es compatible una observación dada o un hallazgo, con algunas hipótesis planteadas o no? La palabra "compatible", se utiliza aquí en el sentido de que la observación está lo "suficientemente" cercana al valor hipotético de tal forma que no se rechaza la hipótesis planteada.

Así, si alguna teoría o experiencia previa lleva a creer que el verdadero coeficiente de la pendiente β2 en el ejemplo consumo-ingreso es la unidad, es el β2 = 0.5091 obtenido de la muestra de la tabla 3.2 consistente con al hipótesis planteada? De ser así, no se rechaza la hipótesis; de lo contrario, se puede rechazar.

En el lenguaje de estadistica, la hipótesis planteada es conocida como hipótesis nula y está denotada por el símbolo Ho. La hipótesis nula es usualmente probada frente a una hipótesis alternativa (también conocida como hipótesis mantenida) denotada por H1, que puede ser simple o compuesta. Por ejemplo, H1: β2 = 1.5 es una hipótesis simple, pero H1: β2 ≠ 1.5 es una hipótesis compuesta.

Intervalo de confianza para σ² (II)

Para ilustrar, considérese este ejemplo. Del capitulo 3, sección 3.6, se obtuvo σ² = 42.1591 y g de l = 8. Si se escoge α igual al 5%, la tabla ji cuadrado para 8 g de l da los siguientes valores criticos: X²(0.025) = 17.5346 y X²(0.975) = 2.1797. Estos valores muestran que la probabilidad de un valor ji cuadrado que exceda 17.5346 es 2.5% y el de 2.1797 es 97.5%. Por consiguiente, el intervalo entre estos dos valores es el intervalo de confianza para X² al 95%, como se muestra en el diagrama de la figura 5.1.

Sustituyendo los datos del ejemplo en (5.4.3), el lector debe verificar que el intervalo de confianza para σ² al 95% es el siguiente:

19.2347 ≤ σ² ≤ 154.7336

La interpretación de este intervalo es el siguiente: Si establecemos límites de confianza al 95% sobre σ² y si afirmamos a priori que entre estos límites caerá el verdadero σ², se acertará en el largo plazo el 95% de las veces.

martes, 19 de noviembre de 2013

Intervalo de confianza para σ² (I)

Como se señalo en el capítulo 4, sección 4.3, bajo el supuesto de normalidad, la variable.



sigue una ditribución X² con n-2 g de l. Por consiguiente, podemos utilizar la distribución X² para establecer el intervalo de confianza para σ²



que da el intervalo de confianza para σ² de 100(1-α)%

Intervalo de confianza para β1 y β2 simultáneamente

Hay ocasiones en las cuales se necesita construir un intervalo de confianza conjunto para β1 y β2 tal que, para un coeficiente de confianza (1-α), digamos del 95%, ambos β1 y β2 caigan simultáneamente dentro de ese intervalo. Puesto que este tema es complejo, el lector puede desear consultar las referencias.

lunes, 18 de noviembre de 2013

Intervalo de confianza para β1

Siguiendo (5.3.7), el lector puede verificar fácilmente que para el ejemplo consumo-ingreso, el intervalo de confianza para β1 al 95% es:

9.6643 ≤ β1 ≤ 39.2448

O, utilizando (5.3.8), se encuentra que es

24.4545 ± 2.306 (6.4138)

es decir

24.4545 ± 14.7902

Nuevamente, se debe ser cauteloso al interpretar este intervalo de confianza. En el largo plazo, en 95 de cada 100 casos, intervalos como (5.3.11) contendrán β1; la probabilidad de que este intervalo fijo incluya el verdadero β1 es 1 ó 0.



Intervalos de confianza para los coeficientes de regresión β1 y β2 (V)

La interpretación de este intervalo de confianza es: Dado el coeficiente de confianza de 95%, en el largo plazo, en 95 de cada 100 casos, intervalos como (0.4268, 0.5914) contendrán el verdadero β2. Pero, como se advirtió antes, obsérvese que no se puede decir que la probabilidad de que el intervalo especifico (0.4268 a 0.5914) contenga el verdadero β2 sea de 95% por que este intervalo es ahora fijo y no aleatorio; por consiguiente, β2 se encontrará o no dentro de él: La probabilidad de que el intervalo especificamente fijado incluya el verdadero β2 es por consiguiente 1 o 0.

domingo, 17 de noviembre de 2013

Intervalos de confianza para los coeficientes de regresión β1 y β2 (IV)

Obsérvese un rasgo importante de los intervalos de confianza dados en (5.3.6) y (5.3.8): En ambos casos la amplitud del intervalo de confianza es proporcional al error estándar del estimador. Es decir, entre más grande sea el error estándar, más amplio será el intervalo de confianza. Expresado de otra forma, entre más grande sea el error estándar del estimador, mayor será la incertidumbre de estimar el verdadero valor del parámetros desconocido. Así, el error estándar de un estimador es descrito frecuentemente como una medida de la precisión del estimador, es decir, qué tan preciso mide el estimador al verdadero valor poblacional.

Volviendo al ejemplo ilustrativo consumo-ingreso, en el capítulo 3 (sección 3.6), se encuentra que β2 = 05091, se(β2) = 0.0357, y g de 1 = 8. Si se supone que α = 5%, es decir, un coeficiente de confianza de 95%, entonces la tabla t muestra que para 8 g de l el valor crítico tα/2 = t0.025 = 3.306. Sustituyendo estos valores en (5.3.5), el lector debe verificar que el intervalo de confianza para β2 al 95% es el siguiente:

0.4268 ≤ β2 ≤ 0.5914

O, utilizando (5.3.6), es

0.5091 ± 2.306(0.0357)

es decir,

0.5091 ± 0.0823

Intervalos de confianza para los coeficientes de regresión β1 y β2 (II)

Pero σ² raramente es conocido y, en la práctica, está determinado por el estimador insesgado σ²., Si se reemplaza σ por σ, (5.3.1) puede escribirse así.





donde se (β2) se refiere ahora al error estándar estimado. Puede demostrarse que la variable t, así definida, sigue la distribución t con n-2 g de l. Por consiguiente, en lugar de utilizar la distribución normal, se puede utilizar la distribución t para construir un intervalo de confianza para β2 de la siguiente forma:




sábado, 16 de noviembre de 2013

Intervalos de confianza para los coeficientes de regresión β1 y β2 (III)

La ecuación (5.3.50 proporciona un intervalo de confianza para β2 al 100(1-α)%, el cual puede ser escrito en forma más compacta como.

Intervalo de confianza para β2 al 100(1-α)%:


Intervalos de confianza para los coeficientes de regresión β1 y β2 (I)

Intervalo de confianza para β2

En el capitulo anterior seccion 4.3 se mostro que bajo el supuestos de normalidad de ui, los estimadores β1 y β2 son en sí mismos normalmente distribuidos con medias y varianzas de allí establecidas. Por consiguiente, por ejemplo, la variable

Como se anotó en (4.3.5) es una variable normal estándar. Por consiguiente, parece que se puede utilizar la distribución normal para hacer afrimaciones probabilisticas sobre β2 siempre que se conozca la verdadera varianza poblacional σ². Si σ² se conoce, una propiedad importante de una variable normalmente distribuida con media μ y varianza σ² es que el área bajo la curva normal entre μ ± 3σ esta cercana al 68% , que entre μ ± 2σ esté alrededor del 95% y que entre los límites μ ± 3σ el área se acerque al 99.7%.

viernes, 15 de noviembre de 2013

Como se construyen los intervalos de confianza?

De la exposición anterior se puede esperar que si se conocen las distribuciones muestrales o de probabilidad de los estimadores, se puedan hacer afirmaciones sobre intervalos de confianza tales como (5.2.1). En el anterior capitulo se vio que bajo el supuesto de normalidad de las perturbaciones ui, los estimadores MCO β1 y β2 están también normalmente distribuidos y que el estimador MCO σ² está relacionado con la distribución X² (Ji-cuadrado). Entonces, parecería que la labor de construir intervalos de confianza es muy sencilla. Y de hecho, lo es!

Estimación de intervalos: Algunas ideas básicas (IV)

3. Puesto que el intervalo de confianza es aleatorio, los enunciados probabílisticos que le corresponden deben ser entendidos en un sentido de largo plazo, es decir, para muestreo repetido.

Más específicamente (5.2.1) significa: Si se construyen intervalos de confianza como el anterior con base probabilistica de 1-α, entonces, en el largo plazo, en promedio, tales intervalos contendrán, en 1-α de los casos, el valor verdadero del parámetro.

4. Como se mencionó en 2, el intervalo (5.2.1) es aleatorio siempre y cuando β2 sea desconocido. Pero una vez se tenga una muestra específica y se obtenga un valor númerico espepecífico de β2 el intervalo (5.2.1) deja de ser aleatorio quedando entonces fijo. En este caso, no se puede hacer la afirmación probabilistica (5.2.1); así, no se puede decir que la probabilidad de que un intervalo fijo dado incluya el verdadero β2 sea (1-α). En esta situación β2 está en el intervalo fijo, o por fuera de éste. Por consiguiente, la probabilidad será 1 o 0. Por tanto, en nuestro ejemplo hipotético consumo-ingreso, si el intervalo de confianza al 95% fuera obtenido (0.4268 ≤ β2 ≤ 0.5914) se mostrará en (5.3.9) que no se puede decir que la probabilidad de que este intervalo incluya el verdadero β2 sea del 95%. Esa probabilidad es 1 ó 0.

jueves, 14 de noviembre de 2013

Estimación de intervalos: Algunas ideas básicas (III)

ES muy importante conocer los siguientes aspectos de la estimación de intervalos:

1. La ecuación (5.2.1) no dice que la probabilidad de que β2 se encuentre entre los límites dados sea 1-α. Puesto que se supone que β2, aún siendo desconocido, es un número fijo, se dice que está o no está dentro del intervalo. La ecuación (5.2.1) establece que, al utilizar el método descrito en este capitulo, la probabilidad de construir un intervalo que contenga β2 es 1-α.

2. El intervalo (5.2.1) es un intervalo aleatorio, es decir variará de una muestra a la siguiente debido a que está basado en β2, el cual es aleatorio. Por que?

Estimación de intervalos: Algunas ideas básicas (II)

Tal intervalo, si existe, se conoce como intervalo de confianza; a 1 - α se le denomina coeficiente de confianza; y α(0 < α < 10 se conoce como el nivel de significancia². Los puntos extremos del intervalo de confianza se conocen como límites de confianza (también denominados valores críticos), siendo ß2 - δ el limite de confianza inferior y ß2+ δ el límite de confianza superior. Obsérvese que en la práctica α y 1 - α son expresados frecuentemente en forma porcentual como 100α y 100(1-α )%.

La ecuación (5.2.1) muestra que un estimador de intervalo, en contraste con un estimador puntual, es un intervalo construido de tal manera que tenga una probabilidad especifica 1-α de contener dentro de sus límites el valor verdadero del parámetro. Por ejemplo, si α = 0.05 o 5% (5.2.1) debería leerse: La probabilidad de que el intervalo (aleatorio) que allí aparece incluye el verdadero ß2es 0.95, o 95%. El estimador de intervalos proporciona entonces un rango de valores dentro de los cuales puede encontrarse el verdadero ß2.

miércoles, 13 de noviembre de 2013

Estimación de intervalos: Algunas ideas básicas (I)

Para poner en orden las ideas, considérese el ejemplo hipotético consumo-ingreso del capítulo 3. La ecuación (3.6.2) muestra que la propensión marginal a consumir (PMC) estimada β2, es 0.5091, la cual constituye una única estimación (puntual) de la PMC poblacional desconocida β2, Qué tan confiable es esta estimación? Como se mencionó en anteriores posts, debido a las fluctuaciones muestrales, es probable que una sola estimación difiera el valor verdadero, aunque en un muestreo repetido se espera que el valor de su media sea igual al valor verdadero. Ahora, en estadistica, la confiabilidad de un estimador puntual se mide por su error estándar. Por consiguiente, en lugar de depender de un solo estimador puntual, se puede construir un intervalo alrededor del estimador puntual, por ejemplo, dentro de dos o tres errores estándar a cada lado del estimador puntual, tal que este valor tenga, digamos 95% de probabilidad de incluir el verdadero valor del parámetro. Esta es, a grandes rasgos, la idea básica de la estimación por intervalos.

Para ser más especifico, supongase que se desea encontrar qué tan "cerca" está, por ejemplo, β2 de β2. Con este fin, tratamos de encontrar dos números positivos, δ y α, éste último situado entre 0 y 1, tal que la probabilidad de que el intervalo aleatorio (β2 - δ, β2 + δ) contenga el verdadero β2 se a 1-α. Simbólicamente,


Pr(β2- δ ≤ β2 ≤ β2 + δ) = 1 - α

Prerrequisitos estadísticos

Antes de exponer el mecanismo real de la construcción de los intervalos de confianza y de la prueba de hipótesis estadísticas, se supone que el lector está familiarizado con los conceptos fundamentales de probabilidad y estadística. Aunque el apéndice A no sustituye un curso básico de estadística proporciona los elementos esenciales de éste con los cuales el lector deberá estar totalmente familiarizado. Conceptos importantes tales como probabilidad, distribuciones de probabilidad, errores tipo I y tipo I, nivel de significancia, potencia de una prueba estadística e intervalos de confianza cruciales  para entender el material cubierto en este capítulo y en los siguientes.

martes, 12 de noviembre de 2013

Regresión con dos variables: Estimación de intervalos y prueba de hipótesis

Cuidado con el chequeo de muchas hipótesis: entre más se torturen los datos, más probables es que ellos confiesen, pero la confesión obtenida bajo presión puede no ser admisible en la corte de la opinión científica.

Como se señalo en el capítulo 4, la estimación y la prueba de hipótesis constituyen las dos ramas principales de la estadística clásica. La teoría de la estimación consta de dos partes: estimación puntual y estimación por intervalos. en los dos capítulos anteriores se estudió a fondo la estimación puntual en donde se introdujeron  los métodos MCO y MV de la estimación puntual. En este capítulo se considerará primero la estimación por intervalos y luego se tratará el tema de las pruebas de hipótesis, un tema estrechamente relacionado con la estimación por intervalos.


Estimación por máxima verosimilitud del ejemplo de consumo-ingreso

Volviendo al ejemplo de la función de consumo keynesiana analizada en la sección 3.6, se ve que los estimadores β1 y β2 de MV son los mismos que los estimadores β1 y β2 de MC, a saber, 24.4545 y 0.5091, respectivamente, pero el estimador MV, σ² = 33.7272 es menor que el estimador MCO; σ² de 42.1591. Como se anotó, en muestras pequeñas el estimador MV está sesgado hacia abajo, es decir, en promedio, este subestima la verdadera varianza σ².

Al considerar o incluir los valores de MV de β1, β2 y σ² en la función log de verosimilitud dada en la ecuación (5), se puede demostrar que el valor máximo de la función log de verosimilitud en este ejemplo es -31.7809 (la mayoría de los paquetes de regresión imprimen estos valores). Si se desea obtener el valor máximo de la función de verosimilitud, simplemente obtenga el antilogaritmo de -31.7809. Ningunos de otros valores de los parámetros le darán a usted una probabilidad mayor de obtener la muestra que usted ha empleado en el análisis.

Se deja como ejercicio para el lector demostrar que para el ejemplo de café dado en la tabla 3.4, los valores MV de los coeficientes del intercepto y de la pendiente son exactamente los mismo que los valores MCO. Sin embargo, el valor MV de σ² es 0.01355, mientras que el obtenido por MCO es 0.01656, mostrando una vez más que en muestras pequeñas el valor estimado MV es menor que el estimador MCO. A propositó, para este ejemplo el máximo valor del log de verosimilitud es 8.04811

lunes, 11 de noviembre de 2013

El método de máxima verosimilitud (II)

Las cuales son precisamente las ecuaciones normales de la teoría de minimos cuadrados obtenida en (3.1.4) y (3.1.5). Por consiguiente, los estimadores de los β, son los mismos que los estimadores MCO, los β, dados en (3.1.6) y (3.1.7) . Esta igualdad no es fortuita. Al examinar la verosimilitud (5), se ve que el último término entra con signo negativo. Por consiguiente, la maximización de (5) equivale a la minimización de este término que es precisamente el enfoque de mínimos cuadrados, como se puede apreciar en (3.1.2).


El método de máxima verosimilitud (I)

Como lo indica el nombre, consiste en estimar los parámetros desconocidos de tal manera que la probabilidad de observar los Y dados sea lo más alta posible (o máxima). Por consiguiente, se tiene que encontrar el máximo de la función (4). Este es un ejercicio sencillo de cálculo diferencial. Para la diferenciación es más fácil expresar (4) en términos de la función logaritmo o log de la siguiente manera. (Nota: ln = logaritmo natural)


domingo, 10 de noviembre de 2013

Estimación de máxima verosimilitud del modelo de regresión con dos variables

Supóngase que en el modelo de dos variables Yi = ß1 + ß2Xi + ui las Yi son independientes y normalmente distribuidas con media = ßi + ß2Xi y varianza σ². Como resultado, puede escribirse la función de densidad de probabilidad conjunta de Y1, Y2.... Yn dadas las medias y varianzas anteriores, de la siguiente forma

f(Y1, Y2,....... Yn︱ß1+ß2Xi, σ²)

Pero dada la independencia de las Y, esta función de densidad de probabilidad conjunta puede escribirse como el producto de la n funciones de densidad individuales como

Resumen y Conclusiones del Supuesto de Normalidad (II)


  1. En los anteriores posts mostraremos la utilidad de estos conocimientos para realizar inferencia con respecto a los valores de los parámetros poblacionales.
  2. Una alternativa al método de los mínimos cuadrados es el método de máxima verosimilitud (MV). Para utilizar este método, sin embargo, uno debe hacer un supuesto sobre la distribución de probabilidad del término de perturbación ui. En el contexto de regresión, el supuesto más corriente es que las ui siguen la distribución normal.
  3. Bajo el supuesto de normalidad, los estimadores MCO y MV de los parámetros del intercepto y la pendiente del modelo de regresión son idénticos. Sin embargo, los estimadores MCO y MV de la varianza de ui son diferentes. En muestras grandes, sin embargo, estos dos estimadores convergen.
  4. Por tanto el método MV generalmente recibe el nombre de método de grandes muestras. El método MV tiene una aplicación más extensa ya que puede ser aplicado también a modelos de regresión no lineal en los parámetros en gran parte del método MCO por razones generalmente no se utiliza.
  5. En este blog, dependeremos en gran parte del método MCO por razones prácticas: (a) Comparado con el MV, el MCO es fácil de aplicar; (b) los estimadores MV y MCO de ß1 y ß2 son idénticos y c) aún en muestras moderadamente grandes, los estimadores MCO y MV de σ² no difieren considerablemente 

Sin embargo, para satisfacer al lector con formación matemática, se presenta una breve introducción al MV.

sábado, 9 de noviembre de 2013

Resumen y Conclusiones del Supuesto de Normalidad (I)

  1. En este capítulo se considera el modelo clásico de regresión lineal normal(MCRLN)
  2. Este modelo difiere del modelo clásico de regresión lineal (MCRL) que supone específicamente que el término de perturbación ui, que hace parte del modelo de regresión, está totalmente distribuido. El MCRL no requiere ningún supuesto sobre la distribución de probabilidad de ui, solamente requiere que el valor de la media de ui sea cero y su varianza sea una constante finita.
  3. La justificación teórica para el supuesto de normalidad es el Teorema del límite central.
  4. Sin el supuesto de normalidad, bajo los otros supuestos analizados antes, el Teorema de Gauss-Markov demostró que los estimadores MCO son MELI
  5. Con el supuesto adicional de normalidad, los estimadores MCO no solamente son los mejores estimadores insesgados (MEI) sino que también siguen distribuciones de probabilidad bien conocidas. Los estimadores MCO del intercepto y de la pendiente están normalmente distribuidos y el estimador MCO de la varianza de ui(=σ²) está relacionado con la distribución Ji-Cuadrado.

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (VII)

Nuevamente por convención, la anotación Fk1k2 significa una variable F con k1 y k2 grados de libertad, en donde el primer subíndice se refiere a los g de 1 del numerador.

En otras palabras, (4.5.2) establece que la variable F es simplemente la razón entre dos variables Ji-Cuadrado independientemente distribuidas dividida por sus respectivos grados de libertad.

Teorema 4.7 La variable t(Student) eleva al cuadrado con k g d 1 tiene una distribución F con k1 = 1g de 1 en el numerador y k2 = k g de 1 en el denominador es decir.

Obsérvese que para que esta igualdad se mantenga, el numerador de los g de 1 de la variable F debe ser 1. Por tanto, F(1,4) = t²4 o F(1,23) = t²23 y así sucesivamente.

Como se anotó, se verá la utilidad práctica de los teoremas anteriores a medida que se avance

viernes, 8 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (VI)

A propósito, obsérvese que a medida que las k, es decir los g de 1 en (4.5.1) aumentan indefinidamente ( es decir a medida que k → ∞), la distribución t de Student se aproxima a la distribución normal estándar. Por convección, la notación tk significa la distribución t de Student o variable con k grados de libertad.

Teorema 4.6 Si Z1 y Z2 son variables Ji-cuadrado independientemente distribuidas con k1 y k2 g de 1. respectivamente, etonces la variable
tiene una distribución F con k1 y k2 grados de libertad, donde k1 es conocida como el numerador de los grados de libertad y k2 como el denominador de los grados de libertad.


Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (V)

De esta forma si Z1 y Z2 son variables de X² independientes con k1 y k2 g de 1, respectivamente entonces Z = Z1 + Z2 es también una variable (X²) con (k1+k2) grados de libertad. Esto se denomina la propiedad reproductiva de la distribucion X².

Teorema 4.5 Si Zi es una variable normal estándar [Z1~N(0,1)] y otra variable Z2 sigue una distribución Ji - cuadrado con k g de 1 y es independiente de Zi, entonces la variable definida como



sigue la distribución t de Student con k g de 1. Nota: esta distribución se trata en el apéndice A y es ilustrada más adelante.

jueves, 7 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (IV)

En resumen, "la suma de los cuadrados de las variables independientes normales estándar tiene una distribución ji-cuadrado con grados de libertad iguales al número de términos en la suma"

Teorema 4.4. Si Z1, Z2,....... Zn son variables aleatorias, distribuidas independientemente, cada una delas cuales sigue una distribución ji-cuadrado con k g de 1, entonces la suma ΣZi = Z1 + Z2 +......+Zn también sigue una distribución Ji-cuadrado con k=Σki g de 1.

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (III)

De esta forma, si Z1 ~N(6,2) y Z2 ~ N(7,3) y cov (Z1,Z2) = 0.8, entonces la combinación lineal 0.6Z1 + 0.4Z2 también está normalmente distribuida con media = 0.6(6) + 0.4(7) = 6.4 y varianza = [0.36(2) + 0.16(3) + 2(0.6)(0.4)(0.8)] = 1.584

Teorema 4.3 Si Z1, Z2........., Zn son variables aleatorias independientes normalmente distribuidas tales que cada Zi ~ N(0,1), es decir, una variable normal estandár, entonces ΣZ²i = Z²1 + Z²2 +.......+Z²n sigue una distribución ji-cuadrado con n g de 1. Simbólicamente ΣZ²i~X²n donde n denota los grados de libertad, g de 1.

miércoles, 6 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (II)

En resumen, las combinaciones lineales de variables normales también poseen una distribución normal. Por ejemplo, si Z1 y Z2 son independientes y normalmente distribuidas y si Z1 ~ N(10,2) y Z2 ~ N(8,1.5), entonces la combinación lineal Z = 0.8Z1 + 0.2Z2 también está normalmente distribuida con media = 0.8(10) + 0.2(8) = 9.6 y varianza = 0.64(2) + 0.04(1.5) = 1.34, es decir, Z ~ (9.6, 1.34).

Teorema 4.2 Si Z1, Z2....., Zn están normalmente distribuidas pero no son independientes, la suma Z = ΣkiZi, donde ki son constantes, no todas iguales a cero, está también normalmente distribuida con media Σkiui y varianza [Σk²iσ²i + 2Σkikicov(Zi,Zj), i ≠ j]/

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F

Las distribuciones de probabilidad t, Ji-cuadrado, y F, están estrechamente relacionadas con la distribución normal. Puesto que se hará uso frecuente de estas distribuciones de probabilidad en los siguientes capitulos, se resumen sus relaciones con la distribución normal en los siguientes teoremas; las pruebas, que están más allá del alcance de este libro.

Teorema 4.1. Si Z1, Z2.....Zn son variables aleatorias independientes y normalmente distribuidas independientes, tales que Zi~N(ui,σ²i), entonces la suma Z = ΣkiZi, donde ki son constates, no todas iguales a cero, está también normalmente distribuida con media Σkiui y varianza Σk²iσ²i, es decir,Z ~N(ΣkiuiΣk²iσ²i).

martes, 5 de noviembre de 2013

Método de máxima verosimiltud (MV)

Un método de estimación puntual, con algunas propiedades teóricamente más fuertes que las del método MCO es el método de máxima verosimilitud (MV). Puesto que este método es ligeramente complicado, se analiza en el apéndice de este capítulo. Para el lector que sólo tiene un interés general, será suficiente con aclarar que si se ha supuesto ui normalmente distribuido, como lo hemos hecho por las razones ya expuestas, los estimadores MV y MCO de los coeficientes de regresión, los β, son idénticos y esto es válido para regresiones simples al igual que para las regresiones múltiples. El estimador MV σ² es Σu²i/n. Este estimador es sesgado, mientras que el estimador MCO de σ² = Σu²i/(n-2) como hemos visto, es insesgado. Pero, comparando estos dos estimadores de σ², se ve que a medida que el tamaño dela muestra n aumenta, los dos estimadores de σ² tienen a ser iguales. Por tanto, asintóticamente, (es decir, amedida que n crece indefinidamente), el estimador MV de σ² también es insesgado.

Puesto que el método de mínimos cuadrados con el supuesto adicional de normalidad de ui nos proporciona todas herramientas necesarias para llevar a cabo la estimación y las pruebas de hipótesis de los modelos de regresión lineal, no existe pérdida alguna para los lectores que no deseen continuar revisando el método de máxima verosimilitud debido a su ligera complejidad matemática.

Propiedades de los estimadores MCO bajo el supuesto de normalidad (IV)

Las propiedades de insesgamiento y de varianza mínima de los estimadores MCO han sido demostrados ya en este blog. Es fácil demostrar que β1 y β2 siguen la distribución normal. Como se anotó en los anteriores capitulos, β1 y β2 son funciones lineales del término de perturbación estocástica ui. Ya que se ha supuesto que las ui están normalmente distribuidas, entonces, siguiendo la regla de que cualquier función lineal de variables normalmente distribuidas tiene igualmente una distribución normal, se cumple que β1 y β2 están normalmente distribuidas con las medias y las varianzas dadas anteriormente. La prueba de la afirmación de que (n-2)σ²/σ² sigue una distribución X² con n-2 g de l es un poco más elaborada y puede encontrarse en las referencias.

El punto importante de anotar es que el supuesto de normalidad nos permite derivar las distribuciones de probabilidad o muestrales de β1 (normal), β2(normal), y σ² (Ji-cuadrado). esto simplifica la tarea de establecer intervalos de confianza y de pruebas (estadisticas) de hipótesis.

A propósito, obsérvese que si se supone que ui está distribuida normalmente con media 0 y varianza σ² entonces Yi posee también una distribución normal con una media y una varianza dada por



La prueba de (4.3.8) se deduce del hecho de que cualquier función lineal de variables normalmente distribuidas posee también una distribución normal.