Zakaj se metoda običajnih najmanjših kvadratov uporablja v linearni regresiji?

Zakaj se metoda običajnih najmanjših kvadratov uporablja v linearni regresiji?
Anonim

Odgovor:

Če predpostavke Gauss-Markof držijo, OLS zagotavlja najnižjo standardno napako katerega koli linearnega ocenjevalca, tako najboljšega linearnega nepristranskega ocenjevalca

Pojasnilo:

Glede na te predpostavke

  1. Koeficienti parametrov so linearni, to samo pomeni # beta_0 in beta_1 # so linearne, vendar # x # spremenljivka ni nujno, da je linearna # x ^ 2 #

  2. Podatki so bili vzeti iz naključnega vzorca

  3. Ni popolne multi-kolinearnosti, zato dve spremenljivki nista popolnoma povezani.

  4. #E (u #/#x_j) = 0 # srednja pogojna predpostavka je nič, kar pomeni, da. t # x_j # spremenljivke ne dajejo informacij o srednji vrednosti neopazovanih spremenljivk.

  5. Variance so enake za katero koli dano raven # x # t.j. #var (u) = sigma ^ 2 #

Nato je OLS najboljši linearni ocenjevalec v populaciji linearnih ocenjevalcev ali (najboljši linearni nepristranski ocenjevalnik) BLUE.

Če imate to dodatno predpostavko:

  1. Variance so normalno porazdeljene

Nato OLS-ocenjevalnik postane najboljši ocenjevalnik, ne glede na to, ali gre za linearno ali nelinearno oceno.

Kaj to v bistvu pomeni je, da če predpostavke 1-5 držijo, potem OLS zagotavlja najnižjo standardno napako katerega koli linearnega ocenjevalca in če držite 1-6, potem zagotavlja najnižjo standardno napako katerega koli ocenjevalca.