Busca en el Blog

jueves, 24 de octubre de 2024

Significado del término lineal

 Como este texto se relaciona sobre todo con modelos lineales, como la ecuación (2.2.2), es esencial entender a cabalidad el término lineal, pues se interpreta de dos formas.

Linealidad en las variables

El primer significado, y tal vez el más “natural”, de linealidad es aquel en que la esperanza condicional de Y es una función lineal de Xi, como en la ecuación (2.2.2).6 Geométricamente, la curva de regresión en este caso es una recta. En esta interpretación, una función de regresión como E(Y | Xi ) = β1 + β2X2i no es una función lineal porque la variable X aparece elevada a una potencia o índice de 2.

Linealidad en los parámetros

La segunda interpretación de linealidad se presenta cuando la esperanza condicional de Y, E(Y | Xi), es una función lineal de los parámetros, los β; puede ser o no lineal en la variable X. 7 De acuerdo con esta interpretación, E(Y | Xi ) = β1 + β2X2 i es un modelo de regresión lineal (en el parámetro). Para ver lo anterior, supongamos que X tiene un valor de 3. Por tanto, E(Y | X = 3) = β1 + 9β2, ecuación a todas luces lineal en β1 y β2. En consecuencia, todos los modelos de la figura 2.3 son de regresión lineal; es decir, son modelos lineales en los parámetros.

Ahora consideremos el modelo E(Y | Xi ) = β1 + β2 2 Xi. Supongamos también que X = 3; así obtenemos E(Y | Xi ) = β1 + 3β22, que es no lineal respecto del parámetro β2. El anterior es un ejemplo de modelo de regresión no lineal (en el parámetro). Analizaremos dichos modelos en el capítulo 14.

De las dos interpretaciones de linealidad, la linealidad en los parámetros es pertinente para el desarrollo de la teoría de regresión que presentaremos en breve. Por consiguiente, en adelante, el término regresión “lineal” siempre significará una regresión lineal en los parámetros; los β (es decir, los parámetros) se elevan sólo a la primera potencia. Puede o no ser lineal en las variables explicativas X. Esquemáticamente tenemos la tabla 2.3. Así, E(Y | Xi) = β1 + β2 Xi , lineal en los parámetros igual que en las variables, es un modelo de regresión lineal (MRL), lo mismo que E(Y | Xi ) = β1 + β2X2i , lineal en los parámetros pero no lineal en la variable X.

Significado del término lineal

Significado del término lineal

sábado, 4 de mayo de 2024

Concepto de función de regresión poblacional (FRP)

 De la anterior exposición, y en especial de las fi guras 2.1 y 2.2, es claro que cada media condicional E(Y | Xi) es función de Xi, donde Xi es un valor dado de X. Simbólicamente,

E(Y | Xi ) = f (Xi ) (2.2.1)

donde ƒ(Xi) denota alguna función de la variable explicativa X. En el ejemplo, E(Y | Xi) es una función lineal de Xi. La ecuación (2.2.1) se conoce como función de esperanza condicional (FEC), función de regresión poblacional (FRP) o regresión poblacional (RP), para abreviar.  Dicha función sólo denota que el valor esperado de la distribución de Y dada Xi se relaciona funcionalmente con Xi. En otras palabras, dice cómo la media o respuesta promedio de Y varía con X.

¿Qué forma adopta la función ƒ(Xi)? Esta pregunta es importante porque en una situación real no disponemos de toda la población para efectuar el análisis. La forma funcional de la FRP es por consiguiente una pregunta empírica, aunque en casos específicos la teoría tiene algo que decir. Por ejemplo, un economista puede plantear que el consumo manifiesta una relación lineal con el ingreso. Por tanto, como primera aproximación o hipótesis de trabajo, podemos suponer que la FRP E(Y | Xi) es una función lineal de Xi, del tipo

E(Y | Xi ) = β1 + β2Xi (2.2.2)

donde β1 y β2 son parámetros no conocidos pero fijos que se denominan coeficientes de regresión; β1 y β2 se conocen también como coeficientes de intersección y de pendiente, respectivamente. La ecuación (2.2.1) se conoce como función de regresión poblacional lineal. En la bibliografía aparecen otras expresiones, como modelo de regresión poblacional lineal o sólo regresión poblacional lineal. En lo sucesivo, consideraremos sinónimos los términos regresión, ecuación de regresión y modelo de regresión.

En el análisis de regresión, la idea es estimar las FRP como la ecuación (2.2.2); es decir, estimar los valores no conocidos de β1 y β2 con base en las observaciones de Y y X. Veremos este tema con más detalle en el capítulo 3.

viernes, 19 de abril de 2024

Análisis de regresión con dos variables - Ejemplo hipotético

 Como se señaló en la sección 1.2, el análisis de regresión se relaciona en gran medida con la estimación o predicción de la media (de la población) o valor promedio de la variable dependiente, con base en los valores conocidos o fijos de las variables explicativas.2 Para entender esto, consideremos los datos de la tabla 2.1. Estos datos se refieren a la población total de 60 familias de una comunidad hipotética, así como a su ingreso semanal (X) y su gasto de consumo semanal (Y ), en dólares. Las 60 familias se dividen en 10 grupos de ingresos (de 80 dólares a 260); asimismo, aparecen los gastos semanales de cada familia de los diversos grupos. Por consiguiente, hay 10 valores fi jos de X y los correspondientes valores Y para cada valor X; así, hay 10 subpoblaciones Y.

Se observa una variación considerable en el consumo semanal de cada grupo de ingreso, lo cual se aprecia con claridad en la fi gura 2.1. No obstante, el panorama general es que, a pesar de la variabilidad del consumo semanal en cada nivel de ingreso considerado, en promedio, el consumo semanal se incrementa a medida que aumenta el ingreso. Para verificar lo anterior, en la  tabla 2.1 se proporciona la media, o promedio, del consumo semanal que corresponde a cada uno de los 10 niveles de ingresos. Así, al nivel de ingreso de 80 dólares le corresponde una media de consumo igual a 65 dólares, pero para el nivel de 200, la media es de 137. En total hay 10 valores medios para las 10 subpoblaciones de Y. A estos valores medios se les llama valores esperados condicionales, en virtud de que dependen de los valores de la variable (condicional) X. En forma simbólica, se denotan con E(Y | X ), lo cual se lee como el valor esperado de Y, dado el valor de X (ver también la tabla 2.2).


Es importante distinguir entre los valores esperados condicionales y el valor esperado incondicional del consumo semanal, E(Y). Si sumamos los consumos semanales de las 60 familias que forman la población y dividimos este número entre 60, obtendremos la cantidad de 121.20 dólares ($7 272/60), que es el valor de la media incondicional, o esperada, del consumo semanal, E(Y ); es incondicional porque, para obtener esta cifra, obviamos los niveles de ingreso de las diversas familias.3 Como es lógico, los diferentes valores esperados condicionales de Y de la  tabla 2.1 varían respecto del valor esperado incondicional de Y, igual a 121.20 dólares. Cuando se plantea la pregunta “¿cuál es el valor esperado del consumo semanal de una familia?”, la respuesta es 121.20 dólares (la media incondicional). Pero si se pregunta “¿cuál es el valor esperado del consumo semanal de una familia cuyo ingreso mensual es de 140 dólares?”, la respuesta es 101 (la media condicional). En otras palabras, a la pregunta “¿cuál es la mejor predicción (media) del gasto semanal de las familias con un ingreso semanal de 140 dólares?”, la respuesta es 101 dólares. Por consiguiente, conocer el nivel de ingreso permite predecir mejor el valor medio del consumo que si se ignora esa información.4 Tal vez sea ésta la esencia del análisis de regresión, como lo descubriremos a lo largo de este libro.



Los puntos oscuros dentro de círculos de la fi gura 2.1 muestran los valores medios condicionales de Y, graficados en función de los diferentes valores de X. Al unir esos valores obtenemos la línea de regresión poblacional (LRP), o, más general, la curva de regresión poblacional (CRP).5 Con palabras más sencillas, es la regresión de Y sobre X. El adjetivo “poblacional” se debe a que en este ejemplo trabajamos con la población total de 60 familias. Por supuesto, en realidad una población tendría más familias.

Así, desde el punto de vista geométrico, una curva de regresión poblacional es tan sólo el lugar geométrico de las medias condicionales de la variable dependiente para los valores fijos de la(s) variable(s) explicativa(s). En palabras más simples, es la curva que conecta las medias de las subpoblaciones de Y que corresponden a los valores dados de la regresora X. Lo anterior se ve de manera gráfica en la fi gura 2.2.

Esta figura muestra que para cada X (es decir, el nivel de ingresos) existe una población de valores Y (consumo semanal) que se distribuyen alrededor de la media (condicional) de dichos valores Y. Por simplicidad, suponemos que tales valores Y están distribuidos simétricamente alrededor de sus respectivos valores medios (condicionales). Asimismo, la recta (o curva) de regresión pasa a través de los mencionados valores medios (condicionales).

Con estos antecedentes, es útil para el lector leer de nuevo la definición de regresión de la sección 1.2.

linea de regresion
37

miércoles, 17 de abril de 2024

Análisis de regresión con dos variables: algunas ideas básicas

 En el capítulo 1 vimos el concepto de regresión en términos generales. En este capítulo lo abordamos más formalmente. De manera específi ca, este capítulo y los tres siguientes introducirán al lector a la teoría básica del análisis de regresión más sencillo posible, es decir, la regresión bivariable o con dos variables, en la cual la variable dependiente (la regresada) se relaciona con una sola variable explicativa (la regresora). Consideremos primero este caso no necesariamente por su adecuación práctica, sino porque presenta las ideas fundamentales del análisis de regresión de la manera más sencilla posible, y algunas de estas ideas pueden ilustrarse con diagramas bidimensionales. Además, como veremos, el análisis de regresión múltiple, más general, en el que la regresada se relaciona con más de una regresora, es, en muchos sentidos, una extensión lógica del caso de dos variables.

34


jueves, 5 de enero de 2023

Lista de los 20 mejores libros de Econometría

 Aquí hay una lista de 20 libros sobre econometría que podrían ser considerados como los mejores por diferentes razones: 

  1.     "Econometría" de Jeffrey M. Wooldridge
  2.     "Introducción a la Econometría: Un enfoque moderno" de Jeffrey M. Wooldridge
  3.     "Econometría Avanzada" de James H. Stock y Mark W. Watson
  4.     "Econometría" de Gujranwala Damodar N.
  5.     "La Econometría del Crecimiento Económico" de Robert J. Barro y Xavier Sala-i-Martin
  6.     "Econometría de Series de Tiempo" de Angela McGraw
  7.     "Econometría" de Damodar N. Gujarati y Dawn C. Porter
  8.     "Econometría" de William H. Greene
  9.     "Econometría Aplicada" de Michael S. Lewis-Beck, William E. Griffiths y Emilia Moro
  10.     "Econometría" de Damodar N. Gujarati
  11.     "Econometría: Una Introducción Moderna" de R. Carter Hill, William E. Griffiths y Guay C. Lim
  12.     "Econometría Avanzada para Economistas" de João F. Graça and A. R. Cavalcanti
  13.     "Econometría: Una introducción" de William H. Greene
  14.     "Econometría: Una Introducción" de R. Carter Hill, William E. Griffiths y Guay C. Lim
  15.     "Econometría: Una Introducción Moderna" de Jeffrey M. Wooldridge
  16.     "Econometría de Panel" de Manuel Arellano and Stephen Bond
  17.     "Econometría: Una Introducción" de James H. Stock y Mark W. Watson
  18.     "Econometría" de Damodar N. Gujarati
  19.     "Econometría" de R. Carter Hill, William E. Griffiths y Guay C. Lim
  20.     "Econometría Avanzada" de James H. Stock y Mark W. Watson

Es importante tener en cuenta que esta lista es subjetiva y que hay muchos otros libros excelentes sobre econometría que podrían haber sido incluidos.

"Econometría" de Jeffrey M. Wooldridge

sábado, 31 de diciembre de 2022

Un ejemplo de un ejercicio que se resuelve por la Prueba de normalidad de Jarque-Bera (JB)

 La prueba de normalidad de Jarque-Bera (JB) es una prueba estadística que se utiliza para determinar si una muestra de datos sigue una distribución normal o no. Se basa en el hecho de que la distribución normal tiene una forma específica con una curva en campana y ciertos valores esperados para dos estadísticos de forma, conocidos como la kurtosis y la sesgo. La prueba de JB calcula estos estadísticos a partir de la muestra de datos y los compara con los valores esperados para la distribución normal. Si los valores observados son muy diferentes de los valores esperados, es probable que la muestra no siga una distribución normal.

A continuación te presento un ejemplo de cómo se podría utilizar la prueba de JB para determinar si una muestra de datos sigue una distribución normal o no.

Ejemplo:

Se tiene una muestra de 50 observaciones de la altura de una planta. Se desea determinar si la altura de la planta sigue una distribución normal o no.

Para realizar la prueba de JB, primero se calculan la kurtosis y el sesgo de la muestra:

Kurtosis = 3.12

Sesgo = -0.47

Luego, se comparan estos valores con los valores esperados para la distribución normal:

Kurtosis esperada para la distribución normal = 3

Sesgo esperado para la distribución normal = 0

Como se puede ver, el valor observado de la kurtosis es muy cercano al valor esperado para la distribución normal, mientras que el valor observado de sesgo es ligeramente menor que el valor esperado. Esto sugiere que la muestra de alturas de plantas podría seguir una distribución normal, aunque no se puede afirmar con certeza debido a la pequeña diferencia entre los valores observados y esperados.

Para obtener una conclusión más precisa, se podría utilizar el valor p obtenido de la prueba de JB. Este valor p indica la probabilidad de que los valores observados de kurtosis y sesgo sean tan diferentes de los valores esperados para la distribución normal si en realidad la muestra sigue una distribución normal. Si el valor p es menor que un cierto nivel de significación, como 0.05, entonces se rechaza la hipótesis de que la muestra sigue una distribución normal. Si el valor p es mayor que el nivel de significación, entonces se acepta la hipótesis de que

sábado, 24 de diciembre de 2022

Explicación sencilla de la Prueba de normalidad de Jarque-Bera (JB)

 La prueba de normalidad de Jarque-Bera (JB) es una prueba estadística utilizada para determinar si una muestra de datos sigue una distribución normal o no. La distribución normal es una distribución de probabilidad que se utiliza a menudo como un modelo de referencia para datos continuos y es caracterizada por una curva en forma de campana con una media y una desviación estándar definidas.

La prueba de JB se basa en el hecho de que, si una muestra de datos sigue una distribución normal, entonces se esperaría que la media y la varianza de la muestra sean similares a la media y la varianza de la población. La prueba de JB utiliza dos estadísticos, denominados estadísticos JB, para evaluar si la media y la varianza de la muestra son similares a la media y la varianza de la población. Si los estadísticos JB son suficientemente grandes, se rechaza la hipótesis de que la muestra sigue una distribución normal.

La prueba de JB es una prueba paramétrica, lo que significa que se basa en el supuesto de que se conocen la media y la varianza de la población. Por lo tanto, se debe tener cuidado al utilizar esta prueba con muestras pequeñas o con datos que no sigan una distribución normal. En esos casos, puede ser más adecuado utilizar una prueba no paramétrica para evaluar la normalidad de los datos.