A legnagyobb valószínűség becslés

Tartalomjegyzék:

A legnagyobb valószínűség becslés
A legnagyobb valószínűség becslés
Anonim

A maximális valószínűség-becslés (VLE) egy általános modell a valószínűség-eloszlás paramétereinek becslésére, amely a mintában szereplő megfigyelésektől függ.

Más szavakkal, az EMV maximalizálja a sűrűségfüggvények azon paramétereinek valószínűségét, amelyek a valószínűségeloszlástól és a mintában található megfigyelésektől függenek.

Amikor a maximális valószínűség becsléséről beszélünk, akkor a funkció a legnagyobb valószínűség. Matematikailag adott minta x = (x1,…, Xn) és paraméterek, θ = (θ1,…, Θn) azután,

Ne essen pánikba! Ez a szimbólum ugyanazt jelenti, mint az összegek összegzése. Ebben az esetben az összes sűrűségfüggvény szorzata függ a minta megfigyeléseitől (xén) és a paraméterek θ.

Minél nagyobb az L (θ | x) értéke, vagyis a maximális valószínűség függvény értéke, annál valószínűbbek a mintalapú paraméterek.

Az EMV logaritmikus függvénye

A maximális valószínűség-becslés megtalálásához meg kell különböztetnünk (levezetnünk) a sűrűségfüggvények szorzatait, és ez nem a legkényelmesebb módszer erre.

Amikor bonyolult funkciókkal találkozunk, akkor egy monoton átalakulás az, amit tehetünk. Más szavakkal, olyan lenne, mintha valódi léptékben szeretnénk megrajzolni Európát. Le kellene méreteznünk, hogy elférjen egy papírlapon.

Ebben az esetben a monoton átalakulást természetes logaritmusok segítségével hajtjuk végre, mivel ezek monoton és növekvő funkciók. Matematikailag,

A logaritmusok tulajdonságai lehetővé teszik a fenti szorzás kifejezését a sűrűségfüggvényekre alkalmazott természetes logaritmusok összegeként.

Tehát a logaritmus által végzett monoton transzformáció egyszerűen kisebb számokra történő "skálaváltás".

Azon paraméterek becsült értéke, amelyek logaritmussal maximalizálják a maximális valószínűség függvény paramétereinek valószínűségét, megegyezik az eredeti maximális valószínűség függvény paramétereinek valószínűségét maximalizáló paraméterek becsült értékével.

Tehát mindig a maximális valószínűség függvény monoton módosításával fogunk foglalkozni, tekintettel a könnyebb számításokra.

Kíváncsiság

Bármennyire is bonyolultnak és furcsának tűnik az EMV, anélkül, hogy észrevennénk, folyamatosan alkalmazzuk.

Mikor?

A lineáris regresszió paramétereinek összes becslésében klasszikus feltételezések mellett. Közismertebb nevén rendes legkisebb négyzetek (OLS).

Más szavakkal, amikor az OLS-t alkalmazzuk, implicit módon alkalmazzuk az EMV-t, mivel mindkettő egyenértékű a következetesség szempontjából.

App

Más módszerekhez hasonlóan az EMV is iteráción alapul. Vagyis annyit ismételni egy bizonyos műveletet, ahányszor szükséges a függvény maximális vagy minimális értékének megtalálásához. Ezt a folyamatot korlátozhatják a paraméterek végső értékei. Például, hogy az eredmény nagyobb vagy egyenlő nulla, vagy hogy két paraméter összegének kevesebbnek kell lennie, mint egy.

A szimmetrikus GARCH modell és annak különböző kiterjesztései alkalmazzák az EMV-t, hogy megtalálják a paraméterek becsült értékét, amely maximalizálja a sűrűségfüggvények paramétereinek valószínűségét.