sábado, 30 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (V)

Puesto que se utiliza la distribución t, el anterior procedimiento de prueba es llamado aproximadamente la prueba t. En el lenguaje de las pruebas de significancia, se dice que un estadistico es estadisticamente significativo si el valor del estadístico de prueba cae en la región crítica. En este caso, la hipótesis nula se rechaza. De la misma manera, se dice que una prueba es estadísticamente no significativa si el valor de el estadístico de prueba cae en la región de aceptación. En esta situación, la hipótesis nula no se rechaza. En nuestro ejemplo, la prueba t es significativa y por tanto se rechaza la hipótesis nula.

Antes de concluir la exposición de pruebas de hipótesis, obsérvese que el procedimiento de prueba presentado se conoce como el procedimiento de las pruebas de significancia de dos lados, o dos colas, ya que se consideran las dos colas extremas de la distribución de probabilidades relevante como regiones de rechazo, y se rechaza la hipótesis nula si case en cualquiera de ellas. Esto sucede porque la H1 era una hipótesis compuesta de dos lados; β2 ≠ 0.3. significa que β2 es mayor que o menor que 0.3. Supóngase que la experiencia sugiere que la PMC sea mayor que 0.3. En este caso se tiene: Ho: β2 ≤ 0.3 y H1: β2 > 0.3. Aunque H1 es aún una hipótesis compuesta, tiene ahora tan solo un lado. Para probar esta hipótesis, se utiliza una prueba de una cola (la cola derecha), como se observa en la figura 5.5 (Véase también el análisis en la sección 5.6)

El procedimiento de prueba es similar al anterior excepto que el límite de confianza superior o valor crítico corresponde ahora a t ∞ = t0.5 es decir, al nivel del 5%. Como lo indica la figura 5.5, en esta caso no es preciso considerar la cola inferior de la distribución t. La utilización de una prueba de significancia de una o dos colas dependerá de la forma como esté formulada la hipótesis alterna, la cual, a su vez, puede depender de algunas consideraciones a priori o de experiencia empirica previa.

viernes, 29 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (IV)

En la práctica, no hay necesidad de estimar (5.7.2) explícitamente. Se puede calcular el valor de t del centro de la doble desigualdad dada en (5.7.1) y ver si esta cae entre los valores críticos t o por fuera de estos. Para el ejemplo.

t = (0.5091 - 0.3)/0.0357 = 5.86

es claro que este valor se encuentra en la región crítica de la figura 5.4. La conclusión se mantiene; es decir, rechazamos Ho.

Obsérvese que si el β2(=β2) estimado es igual al β2 hipotético, es decir, al valor del β2 planteado bajo Ho, el valor t en (5.7.4) será cero. Sin embargo, en la medida en que el valor de β2 estimado se aleje del valor hipotético de β2, el ︱t︱ (es decir, el valor absoluto de t; nota: t puede ser positivo o negativo) será cada vez mayor. Por consiguiente, un valor "grande" de ︱t︱será evidencia en contra de la hipótesis nula. Siempre se puede utilizar la tabla t para determinar si un valor t particular es grande o pequeño; la respuesta, como se sabe, depende de los grados de libertad igual que de la probabilidad del error tipo I que se esté dispuesto a aceptar. Como se puede observar en la tabla t dada en el apéndice D, para cualquier valor dado de g de l, la probabilidad de obtener un valor de ︱t︱ mayor o igual a 1.725 es 0.10 o 10%, pero para los mismos g de l, la probabilidad de obtener un valor ︱t︱ mayor o igual a 3.552 es tan solo 0.002 o 0.2%.






jueves, 28 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (III)

La estrecha conexión entre los enfoques de intervalo de confianza y prueba de significancia para realizar la prueba de hipótesis puede verse ahora comparando (5.3.5) con (5.7.2). En el procedimiento de intervalo de confianza se trata de establecer un rango o intervalo que tenga una probabilidad determinada de contener el verdadero, aunque desconocido β2, mientras que en el enfoque de prueba de significancia se somete a hipótesis algún valor de β2 y se trata de ver si el β2 calculado se encuentra dentro de límites (de confianza) razonables alrededor del valor sometido a hipótesis.

Considérese una vez más el ejemplo de consumo-ingreso. Se sabe que β2 = 0.5091, ee (β2) = 0.0357, y g de l = 8. Si se supone α = 5%, tα/2 = 2.306.Si se plantea que Ho: β2 = β2* = 0.3 y H1: β2 ≈ 0.3, se convierte en

Pr(0.2177 ≤ β2 ≤ 0.3823) = 0.95 (5.7.3)


como se muestra en el diagrama de la figura 5.3. Puesto que el β2 se encuentra en la región crítica, se rechaza la hipótesis nula de que el vardadero β2 = 0.3/



miércoles, 27 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (II)

Reorganizando (5.7.1), se obtiene

que da el intervalo en el cual se encontrará β2 con probabilidad 1-α, dado β2 = β2*. En el lenguaje de prueba de hipótesis, el intervalo de confianza al 100(1-α)% establecido en (5.7.2) es conocido como la región de aceptación (de la hipótesis nula) y la(s) región(es) que queda(n) por fuers del intervalo de confianza es(son) llamada(s) la(s) región(es) de rechazo (de la Ho) o la(s) región(es)critica(s). Como se anotó previamente, los límites de confianza dados por los puntos extremos del intervalo de confianza son llamados también valores críticos.

martes, 26 de noviembre de 2013

Prueba de significancia de los coeficientes de regresión: La prueba t (I)

Un enfoque alternativo, pero complementario al método de intervalos de confianza para probar hipótesis estadísticas es el enfoque de la prueba de significancia desarrollado en forma independiente por R.A. Fisher y conjuntamente por Neyman y Pearson. En términos generales, una prueba de significancia es un procedimiento mediante el cual se utilizan los resultados muestrales para verificar la verdad o falsedad de una hipótesis nula. La idea básica detrás de las pruebas de significancia es la de un estadístico de prueba (un estimador) y su distribución muestral bajo la hipótesis nula. La decisión de aceptar o rechazar la Ho se lleva a cabo con base en el valor del estadístico de prueba obtenido a partir de los datos disponibles.

Como ilustración, recuérdese que, bajo el supuesto de normalidad, la variable




sigue la distribución t con n-2 g de l. Si el valor del verdadero β2 es especificado bajo la hipótesis nula, el valor t de (5.3.2) puede ser calculado fácilmente a partir de la muestra disponible y, por consiguiente, puede servir como estadístico de prueba. Debido a que este estadístico de prueba sigue una distribución t, pueden hacerse afirmaciones sobre los intervalos de confianza como la siguiente:

donde β2* es el valor de β2 bajo Ho donde -tα/2 y tα/2 son los valores de t(los valores críticos de t) obtenidos de la tabla t para un nivel de significancia (α/2) y n - 2 g de l.

lunes, 25 de noviembre de 2013

Prueba de un lado o de una cola

Algunas veces tenemos una gran expectativa a priori o teórica (o existen expectativas basadas en algún trabajo empírico previo) de que la hipótesis alterna es de un lado o de una dirección, en lugar de ser de dos lados o dos colas, como se acaba de analizar. Así, para el ejemplo consumo-ingreso, se puede postular que:

H0:β2 ≤ 0.3 y H1: β2 > 0.3
Puede ser que la teoría económica o el trabajo empírico previo sugieran que la propersión marginal a consumir es mayor de 0.3. Aunque el procedimiento para probar esta hipótesis puede derivarse fácilmente de (5.3.5), el mecanismo real está mejor explicado en términos del enfoque de prueba de significancia analizado a continuación.


domingo, 24 de noviembre de 2013

Prueba de hipótesis: Enfoque del intervalo de Confianza (II)

Siguiendo esta regla, para el ejemplo hipotético, H0: ß2 = 0.3 es claro que éste se encuentra pro fuera del intervalo de confianza al 95% dado en (5.3.9). Por consiguiente, se puede rechazar la hipótesis de que la verdadera PMC sea 0.3 con 95% de confianza. Si la hipótesis nula fuera cierta, la probabilidad de obtener por casualidad un valor de PMC igual a 0.5091 es, como máximo de 5% una probabilidad pequeña.

Es estadística, cuando se rechaza la hipótesis nula, se dice que el hallazgo es estadísticamente significativo. Por otra parte, cuando no se hace, se dice que el hallazgo no es estadísticamente significativo.

Algunos autores utilizan frases como "altamente significativo desde un punto de vista estadístico". Con este término, generalmente quieren decir que cuando ellos rechazan la hipótesis nula, la probabilidad de cometer un error tipo I (por ejemplo, α) es un número pequeño, usualmente 1% Pero, como lo demostrará el análisis del valor p en la sección 5.8, es mejor dejar que el investigador califique el hallazgo estadístico como "significativo", "moderadamente significativo", o "altamente significativo"

sábado, 23 de noviembre de 2013

Es el β2 compatible con H0?

Para responder a esta pregunta, se hace referencia al intervalo de confianza (5.3.9). Se sabe que, en el largo plazo, intervalos como (0.4268, 05914) contendrán el verdadero β2 con una probabilidad del 95%.

En consecuencia, en el largo plazo (es decir, en muestreo repetido) tales intervalos proporcionan un rango límites dentro de los cuales pueden encontrarse el verdadero β2 con un coeficiente de confianza de, digamos 95%. Por tanto, el intervalo de confianza proporciona un conjunto de hipótesis nulas posibles. Poro consiguiente, si β2 bajo H0 se encuentra dentro del intervalo de confianza 100(1-α )%, no se rechaza la hipótesis nula; si esté se encuentra por fuera del intervalo, se puede rechazar. Este rango se ilustra esquematicamente en la figura 5.3

Regla de decisión: Constrúyase un intervalo de confianza para β2 al 100(1-α )% Si el β2 bajo H0 se encuentra dentro de este intervalo de confianza, no rechace H0, pero si está por fuera del intervalo, rechace H0.

viernes, 22 de noviembre de 2013

Prueba de hipótesis: Enfoque del intervalo de Confianza (I)

Prueba de dos lados o dos colas.

Para ilustrar el enfoque del intervalo de confianza, una vez más se hace referencia al ejemplo consumo-ingreso. Como se sabe, la propensión marginal a consumir estimada (PMC),β2, es 0.5091.

Supóngase que se postula que

H0: β2 = 0.3
H1: β2 ≠ 0.3

es decir, bajo la hipótesis nula, la verdadera PMC es 0.3 pero, según la hipótesis alterna, su valor es menor o mayor de 0.3. La hipótesis nula es una hipótesis simple, mientras que la hipótesis alterna es compuesta; y en la práctica, se conoce como hipótesis de dos lados o de dos colas. Muy frecuentemente dicha hipótesis alterna de dos lados refleja el hecho de que no se tiene una expectativa fuerte a priori o teórica sobre la dirección en la cual debe moverse la hipótesis alterna con respecto a la hipótesis nula.

jueves, 21 de noviembre de 2013

Prueba de hipótesis: Comentarios generales (II)

La teoría de prueba de hipótesis se preocupa por el diseño de reglas o procedimientos que permitan decidir si se rechaza o no la hipótesis nula. Hay dos enfoques mutuamente complementarios para diseñar tales reglas, a saber: el intervalo de confianza y la prueba de significancia. Estos dos enfoques plantean que la variable (el estadístico o estimador) bajo consideración sigue alguna distribución de probabilidad y que la prueba de hipótesis establece afirmaciones sobre el (los) valor (es) del (los) parámetro(s) de tal distribución. Por ejemplo, se sabe que con el supuesto de normalidad β2 está normalmente distribuida con media igual a β2 y varianza dada por (4.3.4). Si formulamos la hipótesis de que β2 = 1, se está haciendo una afirmación sobre uno de los parámetros de la distribución normal, por ejemplo, la media. La mayoría de las hipótesis estadísticas que se encuentran en este texto serán de este tipo, haciendo afirmaciones sobre uno o más valores de los parámetros de algunas distribuciones de probabilidad tales como la normal, F,t, o X².

miércoles, 20 de noviembre de 2013

Prueba de hipótesis: Comentarios generales (I)

Habiendo estudiado el problema de la estimación puntual y de intervalos, se considerará ahora el tema de la prueba de hipótesis. En esta sección se analizarán brevemente algunos aspectos generales de este tema.

El problema de la prueba de hipótesis estadística puede plantearse sencillamente de la siguiente manera: Es compatible una observación dada o un hallazgo, con algunas hipótesis planteadas o no? La palabra "compatible", se utiliza aquí en el sentido de que la observación está lo "suficientemente" cercana al valor hipotético de tal forma que no se rechaza la hipótesis planteada.

Así, si alguna teoría o experiencia previa lleva a creer que el verdadero coeficiente de la pendiente β2 en el ejemplo consumo-ingreso es la unidad, es el β2 = 0.5091 obtenido de la muestra de la tabla 3.2 consistente con al hipótesis planteada? De ser así, no se rechaza la hipótesis; de lo contrario, se puede rechazar.

En el lenguaje de estadistica, la hipótesis planteada es conocida como hipótesis nula y está denotada por el símbolo Ho. La hipótesis nula es usualmente probada frente a una hipótesis alternativa (también conocida como hipótesis mantenida) denotada por H1, que puede ser simple o compuesta. Por ejemplo, H1: β2 = 1.5 es una hipótesis simple, pero H1: β2 ≠ 1.5 es una hipótesis compuesta.

Intervalo de confianza para σ² (II)

Para ilustrar, considérese este ejemplo. Del capitulo 3, sección 3.6, se obtuvo σ² = 42.1591 y g de l = 8. Si se escoge α igual al 5%, la tabla ji cuadrado para 8 g de l da los siguientes valores criticos: X²(0.025) = 17.5346 y X²(0.975) = 2.1797. Estos valores muestran que la probabilidad de un valor ji cuadrado que exceda 17.5346 es 2.5% y el de 2.1797 es 97.5%. Por consiguiente, el intervalo entre estos dos valores es el intervalo de confianza para X² al 95%, como se muestra en el diagrama de la figura 5.1.

Sustituyendo los datos del ejemplo en (5.4.3), el lector debe verificar que el intervalo de confianza para σ² al 95% es el siguiente:

19.2347 ≤ σ² ≤ 154.7336

La interpretación de este intervalo es el siguiente: Si establecemos límites de confianza al 95% sobre σ² y si afirmamos a priori que entre estos límites caerá el verdadero σ², se acertará en el largo plazo el 95% de las veces.

martes, 19 de noviembre de 2013

Intervalo de confianza para σ² (I)

Como se señalo en el capítulo 4, sección 4.3, bajo el supuesto de normalidad, la variable.



sigue una ditribución X² con n-2 g de l. Por consiguiente, podemos utilizar la distribución X² para establecer el intervalo de confianza para σ²



que da el intervalo de confianza para σ² de 100(1-α)%

Intervalo de confianza para β1 y β2 simultáneamente

Hay ocasiones en las cuales se necesita construir un intervalo de confianza conjunto para β1 y β2 tal que, para un coeficiente de confianza (1-α), digamos del 95%, ambos β1 y β2 caigan simultáneamente dentro de ese intervalo. Puesto que este tema es complejo, el lector puede desear consultar las referencias.

lunes, 18 de noviembre de 2013

Intervalo de confianza para β1

Siguiendo (5.3.7), el lector puede verificar fácilmente que para el ejemplo consumo-ingreso, el intervalo de confianza para β1 al 95% es:

9.6643 ≤ β1 ≤ 39.2448

O, utilizando (5.3.8), se encuentra que es

24.4545 ± 2.306 (6.4138)

es decir

24.4545 ± 14.7902

Nuevamente, se debe ser cauteloso al interpretar este intervalo de confianza. En el largo plazo, en 95 de cada 100 casos, intervalos como (5.3.11) contendrán β1; la probabilidad de que este intervalo fijo incluya el verdadero β1 es 1 ó 0.



Intervalos de confianza para los coeficientes de regresión β1 y β2 (V)

La interpretación de este intervalo de confianza es: Dado el coeficiente de confianza de 95%, en el largo plazo, en 95 de cada 100 casos, intervalos como (0.4268, 0.5914) contendrán el verdadero β2. Pero, como se advirtió antes, obsérvese que no se puede decir que la probabilidad de que el intervalo especifico (0.4268 a 0.5914) contenga el verdadero β2 sea de 95% por que este intervalo es ahora fijo y no aleatorio; por consiguiente, β2 se encontrará o no dentro de él: La probabilidad de que el intervalo especificamente fijado incluya el verdadero β2 es por consiguiente 1 o 0.

domingo, 17 de noviembre de 2013

Intervalos de confianza para los coeficientes de regresión β1 y β2 (IV)

Obsérvese un rasgo importante de los intervalos de confianza dados en (5.3.6) y (5.3.8): En ambos casos la amplitud del intervalo de confianza es proporcional al error estándar del estimador. Es decir, entre más grande sea el error estándar, más amplio será el intervalo de confianza. Expresado de otra forma, entre más grande sea el error estándar del estimador, mayor será la incertidumbre de estimar el verdadero valor del parámetros desconocido. Así, el error estándar de un estimador es descrito frecuentemente como una medida de la precisión del estimador, es decir, qué tan preciso mide el estimador al verdadero valor poblacional.

Volviendo al ejemplo ilustrativo consumo-ingreso, en el capítulo 3 (sección 3.6), se encuentra que β2 = 05091, se(β2) = 0.0357, y g de 1 = 8. Si se supone que α = 5%, es decir, un coeficiente de confianza de 95%, entonces la tabla t muestra que para 8 g de l el valor crítico tα/2 = t0.025 = 3.306. Sustituyendo estos valores en (5.3.5), el lector debe verificar que el intervalo de confianza para β2 al 95% es el siguiente:

0.4268 ≤ β2 ≤ 0.5914

O, utilizando (5.3.6), es

0.5091 ± 2.306(0.0357)

es decir,

0.5091 ± 0.0823

Intervalos de confianza para los coeficientes de regresión β1 y β2 (II)

Pero σ² raramente es conocido y, en la práctica, está determinado por el estimador insesgado σ²., Si se reemplaza σ por σ, (5.3.1) puede escribirse así.





donde se (β2) se refiere ahora al error estándar estimado. Puede demostrarse que la variable t, así definida, sigue la distribución t con n-2 g de l. Por consiguiente, en lugar de utilizar la distribución normal, se puede utilizar la distribución t para construir un intervalo de confianza para β2 de la siguiente forma:




sábado, 16 de noviembre de 2013

Intervalos de confianza para los coeficientes de regresión β1 y β2 (III)

La ecuación (5.3.50 proporciona un intervalo de confianza para β2 al 100(1-α)%, el cual puede ser escrito en forma más compacta como.

Intervalo de confianza para β2 al 100(1-α)%:


Intervalos de confianza para los coeficientes de regresión β1 y β2 (I)

Intervalo de confianza para β2

En el capitulo anterior seccion 4.3 se mostro que bajo el supuestos de normalidad de ui, los estimadores β1 y β2 son en sí mismos normalmente distribuidos con medias y varianzas de allí establecidas. Por consiguiente, por ejemplo, la variable

Como se anotó en (4.3.5) es una variable normal estándar. Por consiguiente, parece que se puede utilizar la distribución normal para hacer afrimaciones probabilisticas sobre β2 siempre que se conozca la verdadera varianza poblacional σ². Si σ² se conoce, una propiedad importante de una variable normalmente distribuida con media μ y varianza σ² es que el área bajo la curva normal entre μ ± 3σ esta cercana al 68% , que entre μ ± 2σ esté alrededor del 95% y que entre los límites μ ± 3σ el área se acerque al 99.7%.

viernes, 15 de noviembre de 2013

Como se construyen los intervalos de confianza?

De la exposición anterior se puede esperar que si se conocen las distribuciones muestrales o de probabilidad de los estimadores, se puedan hacer afirmaciones sobre intervalos de confianza tales como (5.2.1). En el anterior capitulo se vio que bajo el supuesto de normalidad de las perturbaciones ui, los estimadores MCO β1 y β2 están también normalmente distribuidos y que el estimador MCO σ² está relacionado con la distribución X² (Ji-cuadrado). Entonces, parecería que la labor de construir intervalos de confianza es muy sencilla. Y de hecho, lo es!

Estimación de intervalos: Algunas ideas básicas (IV)

3. Puesto que el intervalo de confianza es aleatorio, los enunciados probabílisticos que le corresponden deben ser entendidos en un sentido de largo plazo, es decir, para muestreo repetido.

Más específicamente (5.2.1) significa: Si se construyen intervalos de confianza como el anterior con base probabilistica de 1-α, entonces, en el largo plazo, en promedio, tales intervalos contendrán, en 1-α de los casos, el valor verdadero del parámetro.

4. Como se mencionó en 2, el intervalo (5.2.1) es aleatorio siempre y cuando β2 sea desconocido. Pero una vez se tenga una muestra específica y se obtenga un valor númerico espepecífico de β2 el intervalo (5.2.1) deja de ser aleatorio quedando entonces fijo. En este caso, no se puede hacer la afirmación probabilistica (5.2.1); así, no se puede decir que la probabilidad de que un intervalo fijo dado incluya el verdadero β2 sea (1-α). En esta situación β2 está en el intervalo fijo, o por fuera de éste. Por consiguiente, la probabilidad será 1 o 0. Por tanto, en nuestro ejemplo hipotético consumo-ingreso, si el intervalo de confianza al 95% fuera obtenido (0.4268 ≤ β2 ≤ 0.5914) se mostrará en (5.3.9) que no se puede decir que la probabilidad de que este intervalo incluya el verdadero β2 sea del 95%. Esa probabilidad es 1 ó 0.

jueves, 14 de noviembre de 2013

Estimación de intervalos: Algunas ideas básicas (III)

ES muy importante conocer los siguientes aspectos de la estimación de intervalos:

1. La ecuación (5.2.1) no dice que la probabilidad de que β2 se encuentre entre los límites dados sea 1-α. Puesto que se supone que β2, aún siendo desconocido, es un número fijo, se dice que está o no está dentro del intervalo. La ecuación (5.2.1) establece que, al utilizar el método descrito en este capitulo, la probabilidad de construir un intervalo que contenga β2 es 1-α.

2. El intervalo (5.2.1) es un intervalo aleatorio, es decir variará de una muestra a la siguiente debido a que está basado en β2, el cual es aleatorio. Por que?

Estimación de intervalos: Algunas ideas básicas (II)

Tal intervalo, si existe, se conoce como intervalo de confianza; a 1 - α se le denomina coeficiente de confianza; y α(0 < α < 10 se conoce como el nivel de significancia². Los puntos extremos del intervalo de confianza se conocen como límites de confianza (también denominados valores críticos), siendo ß2 - δ el limite de confianza inferior y ß2+ δ el límite de confianza superior. Obsérvese que en la práctica α y 1 - α son expresados frecuentemente en forma porcentual como 100α y 100(1-α )%.

La ecuación (5.2.1) muestra que un estimador de intervalo, en contraste con un estimador puntual, es un intervalo construido de tal manera que tenga una probabilidad especifica 1-α de contener dentro de sus límites el valor verdadero del parámetro. Por ejemplo, si α = 0.05 o 5% (5.2.1) debería leerse: La probabilidad de que el intervalo (aleatorio) que allí aparece incluye el verdadero ß2es 0.95, o 95%. El estimador de intervalos proporciona entonces un rango de valores dentro de los cuales puede encontrarse el verdadero ß2.

miércoles, 13 de noviembre de 2013

Estimación de intervalos: Algunas ideas básicas (I)

Para poner en orden las ideas, considérese el ejemplo hipotético consumo-ingreso del capítulo 3. La ecuación (3.6.2) muestra que la propensión marginal a consumir (PMC) estimada β2, es 0.5091, la cual constituye una única estimación (puntual) de la PMC poblacional desconocida β2, Qué tan confiable es esta estimación? Como se mencionó en anteriores posts, debido a las fluctuaciones muestrales, es probable que una sola estimación difiera el valor verdadero, aunque en un muestreo repetido se espera que el valor de su media sea igual al valor verdadero. Ahora, en estadistica, la confiabilidad de un estimador puntual se mide por su error estándar. Por consiguiente, en lugar de depender de un solo estimador puntual, se puede construir un intervalo alrededor del estimador puntual, por ejemplo, dentro de dos o tres errores estándar a cada lado del estimador puntual, tal que este valor tenga, digamos 95% de probabilidad de incluir el verdadero valor del parámetro. Esta es, a grandes rasgos, la idea básica de la estimación por intervalos.

Para ser más especifico, supongase que se desea encontrar qué tan "cerca" está, por ejemplo, β2 de β2. Con este fin, tratamos de encontrar dos números positivos, δ y α, éste último situado entre 0 y 1, tal que la probabilidad de que el intervalo aleatorio (β2 - δ, β2 + δ) contenga el verdadero β2 se a 1-α. Simbólicamente,


Pr(β2- δ ≤ β2 ≤ β2 + δ) = 1 - α

Prerrequisitos estadísticos

Antes de exponer el mecanismo real de la construcción de los intervalos de confianza y de la prueba de hipótesis estadísticas, se supone que el lector está familiarizado con los conceptos fundamentales de probabilidad y estadística. Aunque el apéndice A no sustituye un curso básico de estadística proporciona los elementos esenciales de éste con los cuales el lector deberá estar totalmente familiarizado. Conceptos importantes tales como probabilidad, distribuciones de probabilidad, errores tipo I y tipo I, nivel de significancia, potencia de una prueba estadística e intervalos de confianza cruciales  para entender el material cubierto en este capítulo y en los siguientes.

martes, 12 de noviembre de 2013

Regresión con dos variables: Estimación de intervalos y prueba de hipótesis

Cuidado con el chequeo de muchas hipótesis: entre más se torturen los datos, más probables es que ellos confiesen, pero la confesión obtenida bajo presión puede no ser admisible en la corte de la opinión científica.

Como se señalo en el capítulo 4, la estimación y la prueba de hipótesis constituyen las dos ramas principales de la estadística clásica. La teoría de la estimación consta de dos partes: estimación puntual y estimación por intervalos. en los dos capítulos anteriores se estudió a fondo la estimación puntual en donde se introdujeron  los métodos MCO y MV de la estimación puntual. En este capítulo se considerará primero la estimación por intervalos y luego se tratará el tema de las pruebas de hipótesis, un tema estrechamente relacionado con la estimación por intervalos.


Estimación por máxima verosimilitud del ejemplo de consumo-ingreso

Volviendo al ejemplo de la función de consumo keynesiana analizada en la sección 3.6, se ve que los estimadores β1 y β2 de MV son los mismos que los estimadores β1 y β2 de MC, a saber, 24.4545 y 0.5091, respectivamente, pero el estimador MV, σ² = 33.7272 es menor que el estimador MCO; σ² de 42.1591. Como se anotó, en muestras pequeñas el estimador MV está sesgado hacia abajo, es decir, en promedio, este subestima la verdadera varianza σ².

Al considerar o incluir los valores de MV de β1, β2 y σ² en la función log de verosimilitud dada en la ecuación (5), se puede demostrar que el valor máximo de la función log de verosimilitud en este ejemplo es -31.7809 (la mayoría de los paquetes de regresión imprimen estos valores). Si se desea obtener el valor máximo de la función de verosimilitud, simplemente obtenga el antilogaritmo de -31.7809. Ningunos de otros valores de los parámetros le darán a usted una probabilidad mayor de obtener la muestra que usted ha empleado en el análisis.

Se deja como ejercicio para el lector demostrar que para el ejemplo de café dado en la tabla 3.4, los valores MV de los coeficientes del intercepto y de la pendiente son exactamente los mismo que los valores MCO. Sin embargo, el valor MV de σ² es 0.01355, mientras que el obtenido por MCO es 0.01656, mostrando una vez más que en muestras pequeñas el valor estimado MV es menor que el estimador MCO. A propositó, para este ejemplo el máximo valor del log de verosimilitud es 8.04811

lunes, 11 de noviembre de 2013

El método de máxima verosimilitud (II)

Las cuales son precisamente las ecuaciones normales de la teoría de minimos cuadrados obtenida en (3.1.4) y (3.1.5). Por consiguiente, los estimadores de los β, son los mismos que los estimadores MCO, los β, dados en (3.1.6) y (3.1.7) . Esta igualdad no es fortuita. Al examinar la verosimilitud (5), se ve que el último término entra con signo negativo. Por consiguiente, la maximización de (5) equivale a la minimización de este término que es precisamente el enfoque de mínimos cuadrados, como se puede apreciar en (3.1.2).


El método de máxima verosimilitud (I)

Como lo indica el nombre, consiste en estimar los parámetros desconocidos de tal manera que la probabilidad de observar los Y dados sea lo más alta posible (o máxima). Por consiguiente, se tiene que encontrar el máximo de la función (4). Este es un ejercicio sencillo de cálculo diferencial. Para la diferenciación es más fácil expresar (4) en términos de la función logaritmo o log de la siguiente manera. (Nota: ln = logaritmo natural)


domingo, 10 de noviembre de 2013

Estimación de máxima verosimilitud del modelo de regresión con dos variables

Supóngase que en el modelo de dos variables Yi = ß1 + ß2Xi + ui las Yi son independientes y normalmente distribuidas con media = ßi + ß2Xi y varianza σ². Como resultado, puede escribirse la función de densidad de probabilidad conjunta de Y1, Y2.... Yn dadas las medias y varianzas anteriores, de la siguiente forma

f(Y1, Y2,....... Yn︱ß1+ß2Xi, σ²)

Pero dada la independencia de las Y, esta función de densidad de probabilidad conjunta puede escribirse como el producto de la n funciones de densidad individuales como

Resumen y Conclusiones del Supuesto de Normalidad (II)


  1. En los anteriores posts mostraremos la utilidad de estos conocimientos para realizar inferencia con respecto a los valores de los parámetros poblacionales.
  2. Una alternativa al método de los mínimos cuadrados es el método de máxima verosimilitud (MV). Para utilizar este método, sin embargo, uno debe hacer un supuesto sobre la distribución de probabilidad del término de perturbación ui. En el contexto de regresión, el supuesto más corriente es que las ui siguen la distribución normal.
  3. Bajo el supuesto de normalidad, los estimadores MCO y MV de los parámetros del intercepto y la pendiente del modelo de regresión son idénticos. Sin embargo, los estimadores MCO y MV de la varianza de ui son diferentes. En muestras grandes, sin embargo, estos dos estimadores convergen.
  4. Por tanto el método MV generalmente recibe el nombre de método de grandes muestras. El método MV tiene una aplicación más extensa ya que puede ser aplicado también a modelos de regresión no lineal en los parámetros en gran parte del método MCO por razones generalmente no se utiliza.
  5. En este blog, dependeremos en gran parte del método MCO por razones prácticas: (a) Comparado con el MV, el MCO es fácil de aplicar; (b) los estimadores MV y MCO de ß1 y ß2 son idénticos y c) aún en muestras moderadamente grandes, los estimadores MCO y MV de σ² no difieren considerablemente 

Sin embargo, para satisfacer al lector con formación matemática, se presenta una breve introducción al MV.

sábado, 9 de noviembre de 2013

Resumen y Conclusiones del Supuesto de Normalidad (I)

  1. En este capítulo se considera el modelo clásico de regresión lineal normal(MCRLN)
  2. Este modelo difiere del modelo clásico de regresión lineal (MCRL) que supone específicamente que el término de perturbación ui, que hace parte del modelo de regresión, está totalmente distribuido. El MCRL no requiere ningún supuesto sobre la distribución de probabilidad de ui, solamente requiere que el valor de la media de ui sea cero y su varianza sea una constante finita.
  3. La justificación teórica para el supuesto de normalidad es el Teorema del límite central.
  4. Sin el supuesto de normalidad, bajo los otros supuestos analizados antes, el Teorema de Gauss-Markov demostró que los estimadores MCO son MELI
  5. Con el supuesto adicional de normalidad, los estimadores MCO no solamente son los mejores estimadores insesgados (MEI) sino que también siguen distribuciones de probabilidad bien conocidas. Los estimadores MCO del intercepto y de la pendiente están normalmente distribuidos y el estimador MCO de la varianza de ui(=σ²) está relacionado con la distribución Ji-Cuadrado.

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (VII)

Nuevamente por convención, la anotación Fk1k2 significa una variable F con k1 y k2 grados de libertad, en donde el primer subíndice se refiere a los g de 1 del numerador.

En otras palabras, (4.5.2) establece que la variable F es simplemente la razón entre dos variables Ji-Cuadrado independientemente distribuidas dividida por sus respectivos grados de libertad.

Teorema 4.7 La variable t(Student) eleva al cuadrado con k g d 1 tiene una distribución F con k1 = 1g de 1 en el numerador y k2 = k g de 1 en el denominador es decir.

Obsérvese que para que esta igualdad se mantenga, el numerador de los g de 1 de la variable F debe ser 1. Por tanto, F(1,4) = t²4 o F(1,23) = t²23 y así sucesivamente.

Como se anotó, se verá la utilidad práctica de los teoremas anteriores a medida que se avance

viernes, 8 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (VI)

A propósito, obsérvese que a medida que las k, es decir los g de 1 en (4.5.1) aumentan indefinidamente ( es decir a medida que k → ∞), la distribución t de Student se aproxima a la distribución normal estándar. Por convección, la notación tk significa la distribución t de Student o variable con k grados de libertad.

Teorema 4.6 Si Z1 y Z2 son variables Ji-cuadrado independientemente distribuidas con k1 y k2 g de 1. respectivamente, etonces la variable
tiene una distribución F con k1 y k2 grados de libertad, donde k1 es conocida como el numerador de los grados de libertad y k2 como el denominador de los grados de libertad.


Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (V)

De esta forma si Z1 y Z2 son variables de X² independientes con k1 y k2 g de 1, respectivamente entonces Z = Z1 + Z2 es también una variable (X²) con (k1+k2) grados de libertad. Esto se denomina la propiedad reproductiva de la distribucion X².

Teorema 4.5 Si Zi es una variable normal estándar [Z1~N(0,1)] y otra variable Z2 sigue una distribución Ji - cuadrado con k g de 1 y es independiente de Zi, entonces la variable definida como



sigue la distribución t de Student con k g de 1. Nota: esta distribución se trata en el apéndice A y es ilustrada más adelante.

jueves, 7 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (IV)

En resumen, "la suma de los cuadrados de las variables independientes normales estándar tiene una distribución ji-cuadrado con grados de libertad iguales al número de términos en la suma"

Teorema 4.4. Si Z1, Z2,....... Zn son variables aleatorias, distribuidas independientemente, cada una delas cuales sigue una distribución ji-cuadrado con k g de 1, entonces la suma ΣZi = Z1 + Z2 +......+Zn también sigue una distribución Ji-cuadrado con k=Σki g de 1.

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (III)

De esta forma, si Z1 ~N(6,2) y Z2 ~ N(7,3) y cov (Z1,Z2) = 0.8, entonces la combinación lineal 0.6Z1 + 0.4Z2 también está normalmente distribuida con media = 0.6(6) + 0.4(7) = 6.4 y varianza = [0.36(2) + 0.16(3) + 2(0.6)(0.4)(0.8)] = 1.584

Teorema 4.3 Si Z1, Z2........., Zn son variables aleatorias independientes normalmente distribuidas tales que cada Zi ~ N(0,1), es decir, una variable normal estandár, entonces ΣZ²i = Z²1 + Z²2 +.......+Z²n sigue una distribución ji-cuadrado con n g de 1. Simbólicamente ΣZ²i~X²n donde n denota los grados de libertad, g de 1.

miércoles, 6 de noviembre de 2013

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F (II)

En resumen, las combinaciones lineales de variables normales también poseen una distribución normal. Por ejemplo, si Z1 y Z2 son independientes y normalmente distribuidas y si Z1 ~ N(10,2) y Z2 ~ N(8,1.5), entonces la combinación lineal Z = 0.8Z1 + 0.2Z2 también está normalmente distribuida con media = 0.8(10) + 0.2(8) = 9.6 y varianza = 0.64(2) + 0.04(1.5) = 1.34, es decir, Z ~ (9.6, 1.34).

Teorema 4.2 Si Z1, Z2....., Zn están normalmente distribuidas pero no son independientes, la suma Z = ΣkiZi, donde ki son constantes, no todas iguales a cero, está también normalmente distribuida con media Σkiui y varianza [Σk²iσ²i + 2Σkikicov(Zi,Zj), i ≠ j]/

Distribuciones de probabilidad relacionadas con la distribución normal: distribuciones t, Ji - cuadrado (x²), Y F

Las distribuciones de probabilidad t, Ji-cuadrado, y F, están estrechamente relacionadas con la distribución normal. Puesto que se hará uso frecuente de estas distribuciones de probabilidad en los siguientes capitulos, se resumen sus relaciones con la distribución normal en los siguientes teoremas; las pruebas, que están más allá del alcance de este libro.

Teorema 4.1. Si Z1, Z2.....Zn son variables aleatorias independientes y normalmente distribuidas independientes, tales que Zi~N(ui,σ²i), entonces la suma Z = ΣkiZi, donde ki son constates, no todas iguales a cero, está también normalmente distribuida con media Σkiui y varianza Σk²iσ²i, es decir,Z ~N(ΣkiuiΣk²iσ²i).

martes, 5 de noviembre de 2013

Método de máxima verosimiltud (MV)

Un método de estimación puntual, con algunas propiedades teóricamente más fuertes que las del método MCO es el método de máxima verosimilitud (MV). Puesto que este método es ligeramente complicado, se analiza en el apéndice de este capítulo. Para el lector que sólo tiene un interés general, será suficiente con aclarar que si se ha supuesto ui normalmente distribuido, como lo hemos hecho por las razones ya expuestas, los estimadores MV y MCO de los coeficientes de regresión, los β, son idénticos y esto es válido para regresiones simples al igual que para las regresiones múltiples. El estimador MV σ² es Σu²i/n. Este estimador es sesgado, mientras que el estimador MCO de σ² = Σu²i/(n-2) como hemos visto, es insesgado. Pero, comparando estos dos estimadores de σ², se ve que a medida que el tamaño dela muestra n aumenta, los dos estimadores de σ² tienen a ser iguales. Por tanto, asintóticamente, (es decir, amedida que n crece indefinidamente), el estimador MV de σ² también es insesgado.

Puesto que el método de mínimos cuadrados con el supuesto adicional de normalidad de ui nos proporciona todas herramientas necesarias para llevar a cabo la estimación y las pruebas de hipótesis de los modelos de regresión lineal, no existe pérdida alguna para los lectores que no deseen continuar revisando el método de máxima verosimilitud debido a su ligera complejidad matemática.

Propiedades de los estimadores MCO bajo el supuesto de normalidad (IV)

Las propiedades de insesgamiento y de varianza mínima de los estimadores MCO han sido demostrados ya en este blog. Es fácil demostrar que β1 y β2 siguen la distribución normal. Como se anotó en los anteriores capitulos, β1 y β2 son funciones lineales del término de perturbación estocástica ui. Ya que se ha supuesto que las ui están normalmente distribuidas, entonces, siguiendo la regla de que cualquier función lineal de variables normalmente distribuidas tiene igualmente una distribución normal, se cumple que β1 y β2 están normalmente distribuidas con las medias y las varianzas dadas anteriormente. La prueba de la afirmación de que (n-2)σ²/σ² sigue una distribución X² con n-2 g de l es un poco más elaborada y puede encontrarse en las referencias.

El punto importante de anotar es que el supuesto de normalidad nos permite derivar las distribuciones de probabilidad o muestrales de β1 (normal), β2(normal), y σ² (Ji-cuadrado). esto simplifica la tarea de establecer intervalos de confianza y de pruebas (estadisticas) de hipótesis.

A propósito, obsérvese que si se supone que ui está distribuida normalmente con media 0 y varianza σ² entonces Yi posee también una distribución normal con una media y una varianza dada por



La prueba de (4.3.8) se deduce del hecho de que cualquier función lineal de variables normalmente distribuidas posee también una distribución normal.

lunes, 4 de noviembre de 2013

Propiedades de los estimadores MCO bajo el supuesto de normalidad (III)

8. β1 y β2 tienen varianza mínima entre todas las clases de estimadores insesgados, lineales o no lineales. Este resultado, desarrollado por Rao, es muy poderoso porque a diferencia del teorema de Gauss-Markov no está restringido solamente a al clase de estimadores lineales. Por consiguiente, se puede decir que los estimadores de mínimos cuadrados son los mejores estimadores insesgados (MEI)

Propiedades de los estimadores MCO bajo el supuesto de normalidad (II)

5 β2 está normalmente distribuida con





domingo, 3 de noviembre de 2013

Propiedades de los estimadores MCO bajo el supuesto de normalidad (I)

Con el supuesto de normalidad, los estimadores MCO, β1, β2 y σ² tienen las siguientes propiedades estadisticas.


  1.  Son insesgados
  2. Tienen varianza mínima. En combinación con 1, esto significa que son insesgados con varianza mínima, o, estimadores eficientes.
  3. Consistencia; esto es, a medida que el tamaño de la muestra aumenta indefinidamente, los estimadores convergen hacia sus verdaderos valores poblacionales.
  4. β1 está normalmente distribuida con:

Por qué razón debe formularse el supuesto de normalidad? Existen diversas razones


  1. Como se señaló en la sección 2.5, ui representa la influencia combinada (sobre la variable dependiente) de un gran número de variables independientes que no han sido introducidas explícitamente en el modelo de regresión. Como se explicó, esperamos que la influencia de estas variables omitidas o descartadas sea pequeña y, en el mejor de los casos, aleatoria. Ahora, gracias al conocido teorema del límite central en estadistica, se puede demostrar que si existe un gran número de variables aleatorias independientes e idénticamente distribuidas entonces, con pocas excepciones, la distribución de su suma tiende a ser normal a medida que el número de tales variables se incrementa indefinidamente. Precisamente este teorema del límite central es que el que proporciona una justificación teórica para el supuesto de normalidad de ui.
  2. Una variante del teorema del límite central establece que aunque el número de variables no sea muy grande o si estas variables no son esrtrictamente independientes, su suma puede estar aún normalmente distribuida.
  3. Con el supuesto de normalidad, las distribuciones de probabilidad de los estimadores MCO pueden derivarse fácilmente ya que una propiedad de la distribución normal es que cualquier función lineal de variables normalmente distribuidas estará también normalmente distribuida. Se demuestra más adelante que, bajo el supuesto de normalidad para ui, los estimadores MCO β1 y β2 están también normalmente distribuidos.
  4. Finalmente, la distribución normal es una distribución comparativamente sencilla e involucra dos parámetros  (la media y la varianza) ; es muy conocida y sus propiedades teóricas han sido ampliamente estudiadas en estadísticas matemática. 

sábado, 2 de noviembre de 2013

Supuesto de Normalidad

La regresión lineal normal clásica supone que cada ui está normalmente distribuida como:

Media: E(ui) = 0
Varianza: E(u²i) = σ²
cov(ui,uj): E(ui, uj) = 0 i ≠ j

Estos supuestos pueden expresarse en forma más compacta como

ui ~ N(0, σ²)

donde ~significa "distribuido" y N significa "distribución normal" y donde los términos entre paréntesis representan los dos parámetros de la distribución normal, la media y la varianza.

A propósito, se puede observar que para dos variables normalmente distribuidas, una covarianza o correlación cero significa independencia entre las dos variables. Por consiguiente con el supuesto de normalidad (4.2.3) significa que ui y uj no solamente, no están correlacionadas sino también independientemente distribuidas.

Por consiguiente, podemos escribir (4.2.4) como

ui ~ N(0, σ²)

donde NID significa normal e independientemente distribuido.


Distribución de probabilidad de las perturbaciones ui (II)

Puesto que el objetivo es la estimación igual que las pruebas de hipótesis, se necesita especificar la distribución de probabilidad de las perturbaciones ui. Por qué? la respuesta es sencilla. En la sección 3A.2 del apéndice 3A, se demostró que los estimadores MCO β1 y β2 son funciones lineales de ui, el cual es aleatorio por supuestos. Por consiguiente, las distribuciones muestrales o de probabilidades de los estimadores MCO dependerán de los supuestos formulados sobre la distribución de probabilidad de ui. Dado que las distribuciones de probabilidad de estos estimadores son necesarias para realizar inferencias sobre sus valores poblacionales, la naturaleza de la distribución de probabilidad de ui asume un papel muy importante en las pruebas de hipótesis.

Puesto que el método de MCO no considera supuestos sobre la naturaleza probabilistica de ui, es poco útil para obtener inferencias sobre la FRP a partir de la FRM, a pesar del teorema Gauss-Markov. Este vació puede llenarse si está dispuesto a suponer que los u siguen algún tipo de distribución probabílisticas. Por razones que se explicarán muy pronto, en el conexto del análisis de regresión generalmente se supone que los u poseen una distribución normal.

viernes, 1 de noviembre de 2013

Distribución de probabilidad de las perturbaciones ui (I)

Recuérdese que para la aplicación del método de mínimos cuadrados ordinarios (MCO) al modelo clásico de regresión lineal no se consideran supuestos sobre la distribución de probabilidad de las perturbaciones ui. Los únicos supuestos que se formularon con respecto a las ui eran que éstas tenían valor esperado de cero, no estaban correlacionadas y tenían varianza constante. Con estos supuestos, se vio que los estimadores MCO ß1, ß2 y σ² satisfacián diversas probiedades estadisticas deseables, tales como las de insesgamiento y varianza mínima. Su nuestro objetivo es únicamente la estimación puntual, el método MCO será, por tanto suficiente. Pero la estiamción puntual es solamente un aspecto de la inferencia estadística, siendo el otro, las pruebas de hipótesis.

Así, el interés está no sólo en obtener, digamos ß2, sino también en utilizarlo para hacer afirmaciones o inferencias acerca del verdadero ß2. Más generalmente, nuestra meta es no sólo obtener la función de regresión muestral (FRM) sino utilizarla para inferir acerca de la función de regresión poblacional (PRF).

Supuesto de Normalidad: Modelo Clásico de Regresión Lineal Normal (MCRLN)

En este capitulo se continúa tratando el modelo clásico de regresión lineal con dos variables pero bajo el supuesto de que las perturbaciones de la población ui, están distribuidas normalmente. Este modelo recibe el nombre de modelo clásico de regresión líneal normal (MCRLN) con dos variables. En este capítulo, se ofrece una jsutificación del supuesto de normalidad para ui, y se hace enfasis en las consecuencias del mismo.