Multikollinearitás - mi ez, definíció és fogalom

Tartalomjegyzék:

Anonim

A multikollinearitás az erőteljes lineáris függőségi viszony több mint két magyarázó változó között egy többszörös regresszióban, amely megsérti a Gauss-Markov feltételezést, amikor az pontos.

Más szóval, a multikollinearitás a több mint két magyarázó változó közötti magas korreláció.

Hangsúlyozzuk, hogy a magyarázó változók közötti lineáris kapcsolatnak (korrelációnak) erősnek kell lennie. Nagyon gyakori, hogy a regresszió magyarázó változói korrelálnak. Tehát meg kell említeni, hogy ennek a kapcsolatnak erősnek, de soha nem tökéletesnek kell lennie ahhoz, hogy a multikollinearitás esete legyen. A lineáris összefüggés akkor lenne tökéletes, ha a korrelációs együttható 1 lenne.

Amikor ez az erős lineáris (de nem tökéletes) kapcsolat csak két magyarázó változó között fordul elő, akkor azt mondjuk, hogy kollinearitásról van szó. Multikollinearitás lenne, ha az erős lineáris kapcsolat kettőnél több független változó között fordul elő.

A pontos nem multikollinearitásról szóló Gauss-Markov-feltételezés meghatározza, hogy a mintában a magyarázó változók nem lehetnek állandóak. Ezenkívül a magyarázó változók között nem lehet pontos lineáris összefüggés (nincs pontos multicollinearity). Gauss-Markov nem enged meg pontos multikollinearitást, de közelíti a multikollinearitást.

Regresszió analízis

Alkalmazások

Vannak nagyon sajátos, általában irreális esetek, amelyekben a regressziós változók teljesen függetlenek egymástól. Ezekben az esetekben a magyarázó változók egzogenitásáról beszélünk. A társadalomtudományok általában arról híresek, hogy a hozzávetőleges multikollinearitást beépítették regresszióikba.

Pontos multikollinearitás

Pontos multikollinearitás akkor fordul elő, ha kettőnél több független változó a regresszió többi független változójának lineáris kombinációja.

Problémák

Amikor Gauss Markov tiltja a pontos multikollinearitást, az azért van, mert nem tudjuk megszerezni a szokásos legkisebb négyzetek (OLS) becslőjét.

A becsült béta-sub-i matematikai kifejezése mátrix formában:

Tehát ha van pontos multikollinearitás, akkor az (X'X) mátrixnak 0 determinánsa van, és ezért nem invertálható. Az, hogy nem invertálható, azt jelenti, hogy nem lehet számolni (X'X)-1 és következésképpen egyik sem becsült Beta al-i.

Hozzávetőleges multikollinearitás

A hozzávetőleges multikollinearitás akkor következik be, amikor kettőnél több független változó nem pontosan (közelítés) a regresszióban szereplő többi független változó lineáris kombinációja.

A k változó véletlenszerű változót jelent (független és azonos eloszlású (i.i.d)). Megfigyeléseinek gyakorisága kielégítően megközelíthető egy normál normál eloszlással, 0-s átlaggal és 1-es varianciával. Mivel ez egy véletlen változó, ez azt jelenti, hogy minden i megfigyelésben k értéke különbözik és független minden korábbi értéktől.

Problémák

Matematikailag kifejezve mátrix formában:

Tehát ha van hozzávetőleges multikollinearitás, akkor a mátrix (X'X) hozzávetőlegesen 0, a determinációs együttható pedig nagyon közel 1.

Megoldás

A multikollinearitás csökkenthető a változók regresszorainak kiküszöbölésével, közöttük nagy lineáris összefüggéssel.

Lineáris korrelációs együttható