Hvorfor brukes den vanlige minstefirkantmetoden i lineær regresjon?

Hvorfor brukes den vanlige minstefirkantmetoden i lineær regresjon?
Anonim

Svar:

Hvis Gauss-Markof-antagelsene holder, gir OLS den laveste standardfeilen til en hvilken som helst lineær estimator, så best lineær, objektiv estimator

Forklaring:

Gitt disse antagelsene

  1. Parameter-koeffekter er lineære, dette betyr bare at # beta_0 og beta_1 # er lineære men # X # variabel trenger ikke å være lineær det kan være # X ^ 2 #

  2. Dataene er tatt fra en tilfeldig prøve

  3. Det er ingen perfekt multikollinearitet, så to variabler er ikke perfekt korrelert.

  4. #E (u #/#x_j) = 0 # gjennomsnittlig betinget antagelse er null, noe som betyr at # X_j # variabler gir ingen informasjon om gjennomsnittet av de observerte variablene.

  5. Avvikene er like for et gitt nivå av # X # dvs. #var (u) = sigma ^ 2 #

Så er OLS den beste lineære estimatoren i befolkningen av lineære estimatorer eller (Best Linear Unbiased Estimator) BLUE.

Hvis du har denne tilleggsforutsetningen:

  1. Avvikene fordeles normalt

Så blir OLS estimatoren den beste estimatoren uansett om den er en lineær eller ikke-lineær estimator.

Hva dette i hovedsak betyr er at hvis antagelser 1-5 holder, gir OLS den laveste standardfeilen til en lineær estimator, og hvis 1-6 holder, gir den den laveste standardfeilen til en estimator.