La implicación de este hallazgo es que la inclusión de la variable innecesaria X3 hace que la varianza de α2 sea más grande de lo necesario, con lo cual se hace α2 menos preciso. Esto también es cierto de α1.
Obsérvese la asimetría en los dos tipos de sesgos de especificación que se han considerado. Si se excluye una variable relevante, los coeficientes de las variables consideradas en el modelo son generalmente sesgados al igual que inconsistentes, la varianza del error es incorrectamente estimada y los procedimientos usuales de prueba de hipótesis se invalidan. Por otra parte, la inclusión de una variable irrelevante en el modelo proporciona aun estimaciones insesgadas y consistentes de los coeficientes en el modelo verdadero, la varianza del error es correctamente estimada y los métodos convencionales de prueba de hipótesis son aún válidos; la única penalización que se paga por la inclusión de la variable superflua es que las varianzas estimadas de los coeficientes son mayores y como resultado, las inferencias probabílisticas sobre los parámetros son menos precisas. Una conclusión no deseada aquí sería que es mejor incluir variables irrelevantes que omitir variables relevantes. Pero esta filosofia no es estricta puesto que la adición de variables inneesarias conducirá a una pérdida de eficiencia de los estimadores y puede llevar también al problema de la multicolinealidad. Por queé? para no mencionar la pérdida de grados de libertad. Por consiguiente
En general, el mejor enfoque es incluir solamente las variables explicativas que, teóricamente, influyan directamente sobre la variable dependiente y no hayan sido tenidas en cuenta en otras variables incluidas.
No hay comentarios.:
Publicar un comentario