Per què s'utilitza el mètode ordinari de mínims quadrats en una regressió lineal?

Per què s'utilitza el mètode ordinari de mínims quadrats en una regressió lineal?
Anonim

Resposta:

Si les hipòtesis de la marca Gauss tenen llavors OLS proporciona l’error estàndard més baix de qualsevol estimador lineal de manera que el millor estimador lineal no biaix

Explicació:

Tenint en compte aquests supòsits

  1. Els coeficients dels paràmetres són lineals, això significa només això # beta_0 i beta_1 # són lineals, però # x # la variable no ha de ser lineal, pot ser # x ^ 2 #

  2. Les dades s’han pres d’una mostra aleatòria

  3. No hi ha una multi-colinealitat perfecta, de manera que dues variables no estan perfectament correlacionades.

  4. #EU#/#x_j) = 0 # l’assumpció condicional mitjana és zero, el que significa que # x_j # Les variables no proporcionen informació sobre la mitjana de les variables no observades.

  5. Les variacions són iguals per a qualsevol nivell de # x # és a dir. #var (u) = sigma ^ 2

A continuació, OLS és el millor estimador lineal de la població d’estimadors lineals o (Millor estimador lineal imparcial) BLAU.

Si teniu aquesta hipòtesi addicional:

  1. Les variacions normalment es distribueixen

A continuació, l’estimador OLS es converteix en el millor estimador, independentment de si és un estimador lineal o no lineal.

El que això significa essencialment és que si els supòsits 1-5 es mantenen, OLS proporciona l’error estàndard més baix de qualsevol estimador lineal i si 1-6 es manté, proporciona l’error estàndard més baix de qualsevol estimador.