Odgovor:
Če predpostavke Gauss-Markof držijo, OLS zagotavlja najnižjo standardno napako katerega koli linearnega ocenjevalca, tako najboljšega linearnega nepristranskega ocenjevalca
Pojasnilo:
Glede na te predpostavke
-
Koeficienti parametrov so linearni, to samo pomeni
# beta_0 in beta_1 # so linearne, vendar# x # spremenljivka ni nujno, da je linearna# x ^ 2 # -
Podatki so bili vzeti iz naključnega vzorca
-
Ni popolne multi-kolinearnosti, zato dve spremenljivki nista popolnoma povezani.
-
#E (u # /#x_j) = 0 # srednja pogojna predpostavka je nič, kar pomeni, da. t# x_j # spremenljivke ne dajejo informacij o srednji vrednosti neopazovanih spremenljivk. -
Variance so enake za katero koli dano raven
# x # t.j.#var (u) = sigma ^ 2 #
Nato je OLS najboljši linearni ocenjevalec v populaciji linearnih ocenjevalcev ali (najboljši linearni nepristranski ocenjevalnik) BLUE.
Če imate to dodatno predpostavko:
- Variance so normalno porazdeljene
Nato OLS-ocenjevalnik postane najboljši ocenjevalnik, ne glede na to, ali gre za linearno ali nelinearno oceno.
Kaj to v bistvu pomeni je, da če predpostavke 1-5 držijo, potem OLS zagotavlja najnižjo standardno napako katerega koli linearnega ocenjevalca in če držite 1-6, potem zagotavlja najnižjo standardno napako katerega koli ocenjevalca.
Obstajajo tri zaporedna pozitivna cela števila, tako da je vsota kvadratov najmanjših dveh 221. Kakšne so številke?
Obstaja 10, 11, 12. Prvo številko lahko imenujemo. Drugo število mora biti zaporedno, tako da bo n + 1, tretje pa n + 2. Pogoj, podan tukaj, je, da kvadrat prve številke n ^ 2 plus kvadrat naslednje številke (n + 1) ^ 2 je 221. Lahko napišemo n ^ 2 + (n + 1) ^ 2 = 221 n ^ 2 + n ^ 2 + 2n + 1 = 221 2n ^ 2 + 2n = 220 n ^ 2 + n = 110 Zdaj imamo dve metodi za reševanje te enačbe. Še ena mehanika, ena bolj umetniška. Mehanika je rešiti enačbo drugega reda n ^ 2 + n-110 = 0 z uporabo formule za enačbe drugega reda. Umetniški način je, da napišemo n (n + 1) = 110 in opazimo, da želimo, da je produkt dveh zaporednih številk 110. Ke
Kaj pomeni izraz "najmanjši kvadrati" v linearni regresiji?
Vse to pomeni minimalno vrednost med vsoto razlike med dejansko vrednostjo y in napovedano vrednostjo y. min sum_ (i = 1) ^ n (y_i-haty) ^ 2 Samo pomeni minimum med vsoto vseh zadetkov min sum_ (i = 1) ^ nhatu_i ^ 2 vse to pomeni najmanjši znesek med vsoto razlike med dejansko vrednostjo y in predvideno vrednostjo y. min sum_ (i = 1) ^ n (y_i-haty) ^ 2 Na ta način z zmanjšanjem napake med napovedano in napako dobite najboljšo prilagoditev regresijski premici.
Kakšna je splošna formata enačbe regresijske premice najmanjših kvadratov?
Enačba za linearno regresijo najmanjših kvadratov: y = mx + b kjer je m = (vsota (x_iy_i) - (vsota x_i vsota y_i) / n) / (vsota x_i ^ 2 - ((vsota x_i) ^ 2) / n) in b = (sum y_i - m sum x_i) / n za zbirko n parov (x_i, y_i) To je grozno vrednotenje (in to je, če to delate ročno); vendar z uporabo računalnika (na primer s preglednico s stolpci: y, x, xy in x ^ 2) ni tako slabo.