IDŐSOROK SZTOCHASZTIKUS MODELLJEI

Hasonló dokumentumok
Idősorok elemzése november 14. Spektrálelemzés, DF és ADF tesztek. Idősorok elemzése

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

A maximum likelihood becslésről

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

DIFFERENCIAEGYENLETEK

Autoregresszív és mozgóátlag folyamatok. Géczi-Papp Renáta

Autoregresszív és mozgóátlag folyamatok

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének.

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Funkcionálanalízis. n=1. n=1. x n y n. n=1

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk

Lineáris algebra numerikus módszerei

Centrális határeloszlás-tétel

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

előadás Idősorok elemzése

Készítette: Fegyverneki Sándor

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

A sorozat fogalma. függvényeket sorozatoknak nevezzük. Amennyiben az értékkészlet. az értékkészlet a komplex számok halmaza, akkor komplex

Valószínűségi változók. Várható érték és szórás

Valószínűségszámítás összefoglaló

f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva

Markov-láncok stacionárius eloszlása

4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O

Sorozatok, sorok, függvények határértéke és folytonossága Leindler Schipp - Analízis I. könyve + jegyzetek, kidolgozások alapján

Gazdasági matematika II. vizsgadolgozat megoldása, június 10

1. Példa. A gamma függvény és a Fubini-tétel.

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Differenciálegyenletek numerikus megoldása

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Gauss-Seidel iteráció

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.

Felügyelt önálló tanulás - Analízis III.

Alapfogalmak. Trendelemzés Szezonalitás Modellek. Matematikai statisztika Gazdaságinformatikus MSc október 29. 1/49

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

egyetemi jegyzet Meskó Balázs

A valószínűségszámítás elemei

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

Továbblépés. Általános, lineáris modell. Példák. Jellemzık. Matematikai statisztika 12. elıadás,

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Fourier sorok február 19.

Egyenletek, egyenlőtlenségek VII.

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

1.9. B - SPLINEOK B - SPLINEOK EGZISZTENCIÁJA. numerikus analízis ii. 34. [ a, b] - n legfeljebb n darab gyöke lehet. = r (m 1) n = r m + n 1

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

LNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei

3. Lineáris differenciálegyenletek

Fourier transzformáció

Matematika A2 vizsga mgeoldása június 4.

Kabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

1. Adatok kiértékelése. 2. A feltételek megvizsgálása. 3. A hipotézis megfogalmazása

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

Algebra es sz amelm elet 3 el oad as Nevezetes sz amelm eleti probl em ak Waldhauser Tam as 2014 oszi f el ev

A Statisztika alapjai

BIOMATEMATIKA ELŐADÁS

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.

1 Lebegőpontos számábrázolás

Hipotéziselmélet - paraméteres próbák. eloszlások. Matematikai statisztika Gazdaságinformatikus MSc szeptember 10. 1/58

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

előadás Diszkrét idejű tömegkiszolgálási modellek Poisson-folyamat Folytonos idejű Markov-láncok Folytonos idejű sorbanállás

2. Reprezentáció-függvények, Erdős-Fuchs tétel

Gazdasági matematika II. tanmenet

Hatványsorok, Fourier sorok

Modellek és Algoritmusok - 2.ZH Elmélet

Matematikai geodéziai számítások 5.

Saj at ert ek-probl em ak febru ar 26.

Feladatok megoldásokkal a 9. gyakorlathoz (Newton-Leibniz formula, közelítő integrálás, az integrálszámítás alkalmazásai 1.

Differenciál és integrálszámítás diszkréten

Elméleti összefoglaló a Sztochasztika alapjai kurzushoz

Legkisebb négyzetek módszere, Spline interpoláció

Egészrészes feladatok

Bevezetés az algebrába 2

LINEÁRIS MODELLBEN május. 1. Lineáris modell, legkisebb négyzetek elve

First Prev Next Last Go Back Full Screen Close Quit

15. LINEÁRIS EGYENLETRENDSZEREK

Least Squares becslés

A mérési eredmény megadása

DIFFERENCIÁLEGYENLETEK. BSc. Matematika II. BGRMA2HNND, BGRMA2HNNC

VEKTORTEREK I. VEKTORTÉR, ALTÉR, GENERÁTORRENDSZER október 15. Irodalom. További ajánlott feladatok

Matematikai statisztika c. tárgy oktatásának célja és tematikája

SHk rövidítéssel fogunk hivatkozni.

A fontosabb definíciók

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

2. Hogyan számíthatjuk ki két komplex szám szorzatát, ha azok a+bi alakban, illetve trigonometrikus alakban vannak megadva?

A Föld középpontja felé szabadon eső test sebessége növekszik, azaz, a

Abszolút folytonos valószín ségi változó (4. el adás)

2010. október 12. Dr. Vincze Szilvia

Sorozatok I. Brósch Zoltán (Debreceni Egyetem Kossuth Lajos Gyakorló Gimnáziuma)

3. előadás Stabilitás

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok

Függvény határérték összefoglalás

Átírás:

IDŐSOROK SZTOCHASZTIKUS MODELLJEI VÁGÓ ZSUZSANNA (Oktatási segédlet) Budapest Budapesti Közgazdaságtudományi Egyetem Statisztika Tanszék

2 Tartalom 1 Alapfogalmak 5 1.1 Sztochasztikus folyamatok........................... 5 1.2 Fehér zaj folyamat............................... 7 1.3 Egy példa.................................... 8 1.4 Nagy számok törvényei............................. 10 2 Idősorok speciális modelljei 12 2.1 Lineáris szűrők................................. 12 2.2 Bolyongási folyamat.............................. 13 2.3 AR folyamatok................................. 14 2.4 MA folyamatok................................. 16 2.5 ARMA folyamtok................................ 19 2.6 ARIMA folyamatok............................... 21 3 Stacionárius folyamatok reprezentációja 22 3.1 Herglotz tétel.................................. 22 3.2 Folytonos spektrum............................... 23 3.3 Diszkrét spektrum............................... 27 4 Paraméterbecslés 31 4.1 AR paraméterek legkisebb négyzetes becslése................. 31 4.2 ARMA folyamat maximum likelihood identifikációja............. 35 4.3 ARMA folyamatok előrejelzése......................... 42

3 5 Többdimenziós idősorok 43 5.1 Állapottér reprezentáció............................ 44 5.2 Többdimenziós ARMA folyamatok...................... 47 6 Nem-stacionárius modellek 48 6.1 Integrált és kointegrált idősorok........................ 49 6.2 A kointegrációs tér ML becslése........................ 50 6.3 Hosszú távú modellek.............................. 50

4 Bevezetés Ennek a jegyzetnek az a célja, hogy a IV. éves Idősorok sztochasztikus modelljei című tantárgy előadásaihoz kapcsolódóan olyan írásos anyagot adhassunk, amely megfelelő áttekintést ad a sztochasztikus idősorelemzéshez. Így a jegyzet részben több, részben kevesebb, mint az előadások anyaga. Az áttekinthetőség kedvéért igyekszünk tömören fogalmazni, az előadások folyamán fogunk kitérni a részletekre. A jegyzetben megadjuk azokat a referenciákat, ahol az egyes témák iránt érdeklődők részletesebb leírást találhatnak. Az idősorok sztochasztikus vizsgálatával foglalkozó könyvek közül legelőször a klasszikusnak számító Box-Jenkins könyvet említjük [?]. Közgazdasági szakemberek számára igen hasznos az Éltető-Meszéna-Ziermann könyv [?], míg a matematikai érdeklődésűek számára a Tusnády G. és Ziermann M. szerkesztette könyvet [?] ajánljuk. A II. éves valószínűségszámítás és statisztika tantárgyakhoz folytatásaként sztochasztikus megközelítésben vizsgáljuk az idősorokat. Ez azt jelenti, hogy a kapott adatokra illesztett modellbe már eleve beépítünk véletlen hatásokat. Tehát nem csak azt fogadjuk el, hogy az adataink mérési vagy mintavételezési hibákat tartalmaznak, hanem a vizsgált jelenséget eleve bizonytalan -nak tekintjük. Természetesen a feltételezett sztochasztikus tulajdonság igen sokféle lehet. Célunk ezeknek a megközelítéseknek a bemutatása, az idő rövidsége miatt csak dióhéjban. A kurzus folyamán azt is szeretnénk bemutatni, hogy a gyakorlatban hogyan végezhetjük el egy adott számsor kiértékelését. Az előadásokon megismert eljárások számítógépes megvalósítását az SPSS programcsomag segítségével fogjuk bemutatni. Sok egyéb statisztikai programcsomag létezik még ilyen feladatok megoldására, ezek későbbi alkalmazásához nagy segítséget nyújt az SPSS - mint egyik lehetőség - ismerete.

5 1 Alapfogalmak 1.1 Sztochasztikus folyamatok Sztochasztikus folyamatnak nevezzük valószínűségi változók egy sorozatát. Pontosabban, legyen adott valamilyen T indexhalmaz, és tekintjük az {x t, tɛt } valószínűségi változók halmazát. Gazdasági folyamatok esetén az indexhalmaz diszkrét pontokból áll, gyakran a pozitív egész számok egy részhalmaza. Műszaki problémák vizsgálatakor előfordulnak folytonos paraméterű sztochasztikus folyamatok is, ezekkel most nem foglalkozunk. Az {x t, tɛt } folyamatot szokás elméleti idősor-nak is nevezni. Természetesen ezeket a valószínűségi változókat nem látjuk, a T paraméterhalmaz minden pontjában egy megfigyelésünk van a megfelelő változóra. Ez a megfigyeléssorozat a folyamat realizációja. A megfigyelt folyamatot empírikus idősornak is nevezzük. Gyakran a tényleges paraméterhalmaz egy részére vannak csak megfigyeléseink. Ezeket a realizációkat parciális realizációnak hívjuk. Az elméleti idősor pontos matematikai leírását az {x t, tɛt } folyamat összes véges dimenziós eloszlásának megadásával végezhetnénk el. A gyakorlatban ez azonban nehezen oldható meg, így a modellalkotásban azokat a sztochasztikus folyamatokat részesítjük előnyben, amelyek kevesebb jellemzővel is leírhatók. A legfontosabb elméleti momentumok, amelyekkel foglalkozni fogunk a következők: - várható érték függvény: m(t) = E(x t ), - szórásnégyzet-függvény: σ 2 (t) = D 2 (x t ) = E(x t m(t)) 2, - autokovariancia-függvény: Cov(t, s) = E(x t m(t))(x s m(s)). - autokorrelációs-függvény: ρ(t, s) = Cov(t, s) σ(t)σ(s).

6 Matematikailag könnyebben kezelhetőek, és emiatt különosen fontosak azok az idősorok, amelyek eltolás-invariánsak. Definíció 1.1 Egy sztochasztikus folyamatot (erős értelemben) stacionárius folyamatnak nevezünk, ha tetszőleges k 1 esetén a k-dimenziós eloszlások eltolás-invariánsak. Ez azt jelenti, hogy tetszőleges t 1,...t k, indexhalmaz esetén, az (x t1,..., x tk ) és (x t1 +h,..., x tk +h) k-dimenziós valószínűségi változók eloszlása megegyezik, minden hɛin mellett. Természetesen a gyakorlatban általában nem remélhetjük, hogy az összes véges dimenziós eloszlás esetén ellenőrizhető, vajon eltolás-invariáns-e. Bevezetjük a következő definíciót: Definíció 1.2 Egy sztochasztikus folyamatot gyengén stacionárius folyamatnak nevezünk, ha első és második momentuma eltolásinvariáns, azaz m(t) = m, Cov(t, s) = Cov(t s). Ez azt jelenti, hogy várható értéke konstans és kovarianciafüggvénye csak az időeltolódástól függ. A kétfajta stacionaritás közötti kapcsolat könnyen látható. Ha egy erősen stacionárius idősornak létezik második momentuma, akkor gyenge értelemben is stacionárius. Általában ez a reláció nem fordítható meg. Kivétel például az az eset, amikor feltesszük, hogy a valószínűségi változók együttesen normális eloszlásúak. Ekkor a gyenge stacionaritásból következik az erős stacionaritás, hiszen a normális eloszlást első két momentuma egyértelműen meghatározza. Gyengén stacionárius folyamat autokorrelációs függvénye Ez páros függvény, melyre ρ(h) 1. ρ(h) = Cov(h) Cov(0) = Cov(h) σ 2. A gyakorlatban a fenti jellemzőket a minta alapján kell meghatározni. Tekintsünk tehát egy gyengén stacionárius idősort és tegyük fel, hogy ennek egy x 1,..., x N realizációjával dolgozunk. Feltesszük, hogy a közös várható érték 0. Ekkor a minta alapján a C(k) kovariancia becslése a következő : Ĉ(k) = 1 N k x t x t+k. N k t=1

7 Speciálisan tehát σ 2 = Ĉ(0) = 1 N Az autokorrelációs együttható ρ k becslése: N x 2 t. t=1 ρ k = N k t=1 x t x t+k ( N k t=1 x 2 t ) 1/2 ( N k t=1 x 2 t+k )1/2 Ha az idősor várható értéke nem 0, akkor a fenti formulák kicsit bonyolultabbak lesznek, x t helyett az x t x mennyiségekkel kell számolni. A Ĉ(k) becsléseket empírikus autokovarianciáknak hívjuk, a ρ k mennyiségeket pedig empirikus autokorrelációs együtthatóknak. Ezeket a korrelációkat k függvényében ábrázolva az idősor korrelogramját kapjuk. Egy-egy ilyen ábra gyakran hasznos felismerésekre vezetheti a modellezőt. Ahhoz azonban, hogy kellő alapossággal értékelhessük a korrelogram alapján kapott információkat ismernünk kell a speciális típusú folyamatok korrelogramjának törvényszerűségeit. Ha például egy stacionárius idősor tagjai korrelálatlanok, akkor ρ 0 = 1 és ρ k = 0 ha k 0. Így nagy N esetén valamennyi k 0-ra ρ k 0-hoz tart. Definíció 1.3 Egy sztochasztikus folyamat Markov folyamat, ha a E(x t x t 1, x t 2,...) = E(x t x t 1 ). A fenti tulajdonság szavakban így fogalmazható meg: ha az idősor értéke a t-dik időpontban x, akkor az, hogy a t + 1-dik időpillanatra milyen állapotba megy át nem függ mástól, mint x-től és egy véletlen α t tényezőtől, ami az idősor múltjától független. Ezek az α t -k független valószínűségi változók. Az (x t ) Markov folyamatot Gauss-Markov folyamatnak hívjuk, ha a valószínűségi változók normális eloszlásúak. 1.2 Fehér zaj folyamat Stacionárius Markov folyamatra a legegyszerűbb példa a fehér zaj folyamat.

8 Definíció 1.4 Egy (e t ) folyamatot fehér zaj-nak hívunk, ha a sorozat független, azonos eloszlású valószínűségi változókból áll, melyek várható értéke 0, és szórása véges. Könnyen látható, hogy a fenti folyamat gyenge és erős értelemben is stacionárius. Valóban, kovarianciafüggvénye így írható: Cov(k) = E(e t+k e t ) = Ee t+k Ee t = 0, ha k > 0, autokorrelációs függvénye pedig { 0 k = 0 ρ(k) = 1 k 0 Gyakran feltesszük még azt is, változókból áll. hogy a fehér zaj normális eloszlású valószínűségi 1.3 Egy példa Tegyük fel, hogy az (x t ) idősor eleget tesz az alábbi rekurziónak: x t+1 = αx t + e t, x 0 = ξ, (1.1) ahol α valós szám, (e t ) normális eloszlású fehér zaj σ szórással, mely ξ-től független. Elsőként belátjuk a Markov tulajdonság teljesülését: E(x t+1 x t, x t 1,...) = E(αx t + e t x t, x t 1,...) =, ami a feltételes várható érték linearitása miatt így folytatható: = αe(x t x t, x t 1,...) + E(e t x t, x t 1,...). A fenti összeg első tagjában x t benne van a feltételi halmazban, így a feltételes várható érték önmaga. A második tagban pedig e t független a feltételtől, ezért a feltételes várható érték a közönséges várható értékkel egyezik meg, ami feltevésünk szerint 0. Végül azt kapjuk tehát, hogy E(x t+1 x t, x t 1,...) = αx t, s ezzel beláttuk, hogy (x t ) Markov tulajdonságú.

9 Megvizsgáljuk, hogy milyen feltételek mellett lesz a fenti idősor gyengén stacionárius. Az (1.1) egyenletből fokozatos behelyettesítéssel az következik, hogy x t+1 = αx t + e t = α(αx t 1 + e t 1 ) + e t =... = e t + αe t 1 +... + α t e 0 + α t+1 x 0. (1.2) Várható értéket véve azt kapjuk, hogy Ex t+1 = α t+1 Ex 0, hiszen a fehér zaj 0 várható értékű. A fenti kifejezés csak akkor lesz t-től független, ha Ex 0 = 0, és ekkor Ex t 0. Vizsgáljuk meg a szórásnégyzet függvényt. függetlensége miatt, hogy (1.2)-ból azt kapjuk a fehér zaj Ugyanígy felírhatjuk x t szórásnégyzetét is: Ex 2 t+1 = σ 2 (1 + α 2 +... + α 2t ) + α 2(t+1) Ex 2 0. Ex 2 t = σ 2 (1 + α 2 +... + α 2t 2 ) + α 2t Ex 2 0. A gyenge stacionaritáshoz szükséges, hogy Ex 2 t+1 = Ex 2 t teljesüljön. A fenti két egyenletet kivonva egymásból azt kapjuk, hogy ahonnan formálisan azt írhatjuk, hogy α 2t Ex 2 0 = σ 2 α 2t + α 2t+2 Ex 2 0, Ex 2 0 = σ2 1 α 2. Mivel egy valószínűségi változó szórásnégyzetét írtuk fel, ennek akkor van értelme, ha α < 1. Ekkor a szórásnégyzet függvény konstans lesz, éspedig Ex 2 t = σ2 1 α 2. Nézzük meg, ez a feltétel elegendő-e. Tegyük fel, hogy α < 1, és számoljuk ki a folyamat autokovariancia függvényét, E(x t+k x t )-t. A (1.2) kifejezéshez hasonlóan azt írhatjuk, hogy x t+k = α k x t + e t+k 1 + αe t+k 2 +... + α k 1 e t.

10 A fenti egyenletet x t -vel szorozva, majd várható értéket véve azt kapjuk, hogy E(x t+k x t ) = α k Ex 2 t + E(x t (e t+k 1 + αe t+k 2 +... + α k 1 e t )). A jobboldal második tagja független tényezőkből áll, várható értéke 0. Ezért ami valóban csak k-tól függ. E(x t+k x t ) = α k Ex 2 t = α k σ 2 1 α 2, A folyamat autokovarianciafüggvénye tehát így írható: α k σ 2 1 α 2 ha k > 0 C(k) = E(x t+k x t ) = σ 2 1 α 2 ha k = 0. α k σ 2 1 α 2 ha k < 0 Beláttuk tehát a következő tétel egyik állítását; a másik állítás igazolása túlmutat a jegyzet keretein. Tétel 1.1 Egy 0 várható értékű (x t ) folyamat pontosan akkor stacionárius Gauss-Markov folyamat, ha létezik olyan α < 1 valós szám és létezik (e t ) normális eloszlású fehér zaj, hogy x t+1 = αx t + e t teljesül. 1.4 Nagy számok törvényei Az idősorelemzésben többször használni fogjuk azokat az összefüggéseket, amelyek valószínűségi változók sorozatának bizonyos aszimptotikus tulajdonságait írják le. Most felsoroljuk a témakör legalapvetőbb tételeit. Nagy számok Bernoulli-féle törvénye. Tekintsünk egy A véletlen eseményt, melynek valószínűsége p. Erre az eseményre

11 független kisérleteket végzünk a t = 1, 2... időpontokban. Az x t valószínűségi változó értéke legyen 1, ha a t-dik kisérletben A bekövetkezik, egyébként pedig 0. Ekkor x 1 + x 2 +... + x n lim n n p azaz minden ε > 0 esetén létezik olyan δ > 0 melyre sztochasztilusan ha n elég nagy. n x t t=1 P ( n p < ε) > 1 δ Nagy számok erős törvénye (Borel tétel). Legyen (x t ) független azonos eloszlású valószínűségi változók sorozata, melyek negyedik momentuma létezik. Legyenek m = Ex t, σ 2 = E(x t m) 2. Ekkor x 1 + x 2 +... + x n lim n n m 1 vsz-gel Statisztika alaptétele. (Glivenko tétel) Legyen (x t ) független azonos eloszlású valószínűségi változók sorozata, melyek közös eloszlásfüggvénye F (x). Legyen F N (x) az x 1,..., x N megfigyelésen alapuló tapasztalati eloszlásfüggvény. Ekkor sup F N (x) F (x) 0 1 vsz-gel xɛir Centrális határeloszlástétel Legyen (x t ) független azonos eloszlású valószínűségi változók sorozata, melyekre m = Ex t, σ 2 = E(x t m) 2. Jelölje y t = x 1 + x 2 +... + x n nm nσ. Ekkor y t eloszlása t esetén a standard normális eloszláshoz tart. Emlékeztetünk rá, hogy az e valószínűségi változó standard normális eloszlású, ha sűrűségfüggvénye ϕ(t) = 1 2π e t2 /2, tɛir.

12 2 Idősorok speciális modelljei 2.1 Lineáris szűrők Legyen (e t ) egy sztochasztikus folyamat, és legyen (h j ), j 0 valós számsorozat, melyre h 2 j <. j=0 Képezzük az alábbi folyamatot: x t = h j e t j (2.1) j=0 A szakirodalomban szokásos elnevezéssel azt mondjuk, hogy az (e t ) folyamatot a (h j ) súlyokkal megadott lineáris szűrőn engedtük át; a szűrő inputja (e t ) (bemenő jel), outputja (x t ) (kimenő jel). Speciálisan, ha (e t ) σ szórású fehér zaj, akkor a x t 0 várható értékű, és véges szórású lesz. Valóban, Ex t = D 2 (x t ) = h j Ee t j = 0 j=0 h j h k E(e t j e t k ) = σ 2 j=0 k=0 j=0 h 2 j. A következő fejezetekben szereplő modellek (AR, MA, ARMA) ennek az általános sémának speciális esetei. Vezessük be az idősorok körében az időeltolás z operátorát. Legyen zx t = x t 1. Értelmezhetjük ennek az operátornak a hatványait: z j x t = x t j, továbbá polinomjait is. Ha például A(s) = 1 + α 1 s +... α p s p

13 egy valós együtthatós polinom, akkor az A(z) operátort így értelmezzük: A(z)x t = x t + α 1 x t 1 +... α p x t p. Ekkor a H(z) = h j z j j=1 jelöléssel a fenti (2.1) szűrővel definiált folyamat így írható: x t = H(z)e t. 2.2 Bolyongási folyamat Tegyük fel, hogy az x t folyamatot az alábbi egyenlet írja le x t = x t 1 + e t, x 0 = 0, ahol (e t ) egy m várható értékű és σ 2 szórásnégyzetű fehér zaj folyamat. Ekkor egymás utáni behelyettesítésekkel azt kapjuk, hogy t x t = e i, i=1 és emiatt Ex t = tm, D 2 x t = tσ 2, tehát a bolyongás nem lesz stacionárius folyamat. Figyeljük meg azonban, hogy az első differenciák sorozata, x t x t 1, teljesen véletlen folyamat, tehát stacionárius. Egy véletlen bolyongást olyan folyamatnak tekinthetünk, ami pontosan emlékszik az előző értékre, de csak arra. Egy véletlen faktortól eltekintve minden érték az előzővel egyezik meg. Néhány megjegyzés bolyongásokkal kapcsolatban: Fontos idősor, bár nem tudunk túl sokat mondani róla. Definíció szerint véletlen zajok összege. Ha a zaj várható értéke 0 - mint általában -, nem lesz benne trend. Gyakran eltávolodik azonban a hosszú távú átlagtól. Ha az átlag 0, akkor a következő időszak legjobb becslése a legutóbbi megfigyelés.

14 Példa: részvények árai. Ha megnézzük a részvényárak alakulását, akkor azt tapasztaljuk, hogy az adatok az átlag körül ingadoznak látható szabályszerűség nélkül. Ez az adatsor nem stacionárius, de a differenciákat tekintve fehér zaj folyamatot kapunk. Itt szemléletesen érzékeltethető az a tény, hogy az egy lépéses predikció (előrejelzés) nem lehet jobb, mint a legutolsó érték. Ha ugyanis a korábbi adatokból azt tudnánk jósolni, hogy felmegy a részvények ára, akkor mások is erre a következtetésre jutnának, tehát elkezdődne a részvények felvásárlása. Amitől persze egy idő múlva biztosan lefele menne a részvények ára. Ebből következik, hogy az esetek döntő többségébem minden jó előrejelzési módszer szerint - ami az addig hozzáférhető adatokon alapul - a legjobb előrejelzés az, hogy a részvények ára változatlan fog maradni. Bár az általános bolyongásról nem tudunk nagyon sokat mondani, az alábbi speciális eset vizsgálata potosan elvégezhető. Nem tartozik a szorosan vett tananyagunk körébe, így akiket érdekel ez az (egyébként szép) témakör, Feller [?] könyvében utánanézhetnek. Speciális eset. Tekintsük azt az esetet, amikor a fehér zaj olyan valószínűségi változókból áll, amelyek csak 1 és -1 értékeket vehetnek fel, 1/2-1/2 valószínűséggel. Ekkor többek között igaz a Pólya tétel, amely azt mondja ki, hogy a kiindulási pontba 1 valószínűséggel végtelen sokszor vissza fog térni a bolyongás. Ráadásul, ezeknek a visszatérési időknek az eloszlása is megadható. Azt is ki tudjuk számolni, hogy átlagosan mennyi időt tölt a folyamat egy adott intervallumban. 2.3 AR folyamatok Definíció 2.1 Azt mondjuk, hogy (x t ) p-ed rendű autoregresszív folyamat, ha x t + α 1 x t 1 +... α p x t p = e t (2.2) ahol (e t ) egy σ szórású fehér zaj. Ezt röviden úgy jelöljük, hogy (x t ) AR(p) folyamat. A fenti folyamathoz hozzárendelt opreátor a következő: ahol z az egységnyi időeltolás operátora. A(z) = 1 + α 1 z +... + α p z p,

15 Tétel 2.1 A (2.2) egyenlettel definiált folyamat csak akkor stacionárius (megfelelő indítás esetén), ha az A(s) komplex változós polinomra teljesül, hogy A(s) 0 ha s 1. Bizonyítás. ( Vázlat) Az alapgondolat a következő. Ha A(s) gyökei különbözőek, akkor 1/A(s) elemi törtekre bontható: 1 p A(s) = A k p ( k=1 1 β k s = ( p ) A k β j k ), sj = s j A k β j k, k=1 j=1 j=1 k=1 ahol β k < 1 (ui. ezek a gyökök reciprokai). Így a jobboldalon szereplő sor abszolút konvergens. Határozzuk meg (x t ) autokovarianciáit. Legyen c k := E(x t+k x t ), k 0, nyilván c k = c k. Ha megszorozzuk a (2.2) egyenlet mindkét oldalát x t k -val, 0 k p, és várható értéket veszünk, akkor az alábbi lineáris egyenletrendszert kapjuk: c 0 + α 1 c 1... + α p c p = σ 2 c 1 + α 1 c 0... + α p c p 1 = 0 c k + α 1 c k 1... + α p c p k = 0 c p + α 1 c p 1... + α p c 0 = 0. Ez p+1 lineáris összefüggés az első p+1 autokovarianciára. A fenti lieáris egyenletrendszert Yule - Walker egyenletrendszernek hívják... A megoldhatóság feltétele, hogy A(s)-nek ne legyen egységnyi abszolútértékű gyöke. k > p esetén az autokovarianciák az alábbi rekurzióval számolhatóak: c k = α 1 c k 1... α p c k p. Speciális eset. Ha p = 1, akkor a Yule-Walker egyenletrendszer két egyenletből áll: c o + αc 1 = σ 2 c 1 + αc 0 = 0,

16 aminek megoldása már jól ismert: és altalában c k = ( α) k σ 2 2.4 MA folyamatok c 0 = σ2 1 α, c 2 1 = α σ2 1 α, 2 1 α 2, k > 0 esetén. Definíció 2.2 Az (x t ) folyamatot q-ad rendű mozgóátlag folyamatnak hívjuk, ha x t = β 0 e t +... + β q e t q (2.3) ahol β j valós konstansok, (e t ) pedig 0 várható értékű fehér zaj egységnyi szórással. Azt mondjuk, hogy (x t ) MA(q) folyamat. Nyilvánvalóan egy MA(q) folyamat stacionárius lesz, gyenge és erős értelemben egyaránt. Könnyen látható, hogy a fenti folyamat autokovariancia-függvényét így számolhatjuk ki: q βj 2 k = 0 j=0 c k = q k j=0 β j β j+k 0 < k q. 0 k > q c k k < 0 Tehát (β 0,..., β q )-ból (c 0, c 1,..., c q ) egyértelműen meghatározható. egyértelmű, ezt mutataja be az alábbi egyszerű példa. Visszafelé ez nem Példa. Tekintsük az alábbi stacionárius folyamatokat: x t = e t + βe t 1 (2.4) y t = βe t + e t 1. (2.5)

17 Ha feltesszük, hogy β 1, akkor a két folyamat nyilván különböző lesz. Ennek ellenére, mindkét folyamat autokovariancia függvénye ugyanaz, éspedig 1 + β 2 k = 0 β k = 1 c k =. 0 k > 1 c k k < 0 A háttérben az áll, hogy csak az egyik esetben tudjuk csak a fehér zajt visszaállítani, β értékétől függően. (2.4)-ból e t -t kifejezve, majd ezt újra felhasználva a következő formális sorfejtést kapjuk: e t = x t βe t 1 = x t β(x t 1 βe t 2 ) = =... = ( 1) k β k x t k. (2.6) k=0 Hasonlóan, (2.5)-ból azt kapjuk, hogy e t = 1 β (y t e t 1 ) = 1 β y t 1 β ( 1 β y t 1 e t 2 ) = =... = 1 ( 1) k 1 β k=0 β y t k. k (2.7) Így az (e t ) idősor kétfajta formális előállítását kaptuk. Látható, hogy a (2.6) lineáris szűrő pontosan akkor értelmezhető, ha β 2k konvergens, azaz ha β < 1. Hasonlóan, a (2.7) k=0 lineáris szűrő pontosan akkor értelmezhető, ha β > 1. Tehát bár (x t ) és (y t ) autokovarianciafüggvénye megegyezik, de csak az egyikből tudjuk a fehér zajt rekonstruálni, β értékétől függően. Definíció 2.3 Egy (x t ) MA(q) folyamatot invertálhatónak nevezünk, ha B(s) gyökei az egységkörön kívül vannak. Meghatározzuk most általános esetben, hogy adott (c 0, c 1,..., c q ) sorozathoz hogyan tudunk MA(q) sorozatokat hozzárendelni, melyeknek éppen ezek az autokovarianciái. Lemma 2.1 Adott (c 0, c 1,..., c q )-hoz akkor és csak akkor létezik olyan (β 0,..., β q ) melyekre c k = β 0 β k + β 1 β k+1 +... β q k β k, k = 0,...q (2.8)

18 ha egyrészt c 0 > 0, másrészt a q Γ(s) := c 0 + c k (s k + 1 s ) k k=1 komplex függvénynek az egységkörön csak páros multiplicitású gyöke van. Bizonyítás. (Vázlat.) A bizonyítás azon alapul, hogy az adott feltétel mellett s q Γ(s) valós polinomok szorzatára bontható: s q Γ(s) = B(s)s q B( 1 s ), ahol a B(s) q-ad fokú polinom együtthatói a megfelelő β számok. Ez abból látható, hogy a lemma feltételei esetén ha s 0 gyöke az s q Γ(s) polinomnak, akkor 1/s 0 is az. Lemma 2.2 Γ(s)-nek pontosan akkor van egységkörön csak páros multiplicitású gyöke, ha Γ(e iλ ) 0 λɛ[ π, π], azaz Γ(s) a komplex egységkörön nemnegatív valós értékeket vesz fel. Tétel 2.2 (Wold, 1954) 1). Ha valamely (c 0, c 1,..., c q )-hoz létezik olyan (β 0, β 1,..., β q ), melyre (2.8) teljesül, akkor található olyan (x t ) MA(q) folyamat, melyre E(x t+k x t ) = c k, k = 0,...q. 2.) Ha valamely stacionárius (x t ) Gauss folyamatra teljesül az, hogy akkor ez a folyamat MA(q). c k = E(x t+k x t ) = 0, k q, Bizonyítás. A tétel első része az eddig elmondottakból kövelkezik. A második részhez tekintsünk egy (x t ) stacionárius folyamatot, melyre E(x t+k x t ) = 0, ha k > q. A 2.2 lemma feltételének teljesülését fogjuk igazolni. Legyen ωɛ[ π, π] tetszőleges. Ekkor 0 E 1 2n = 1 2n n t= n n x t e itω 2 = 2 2n t+n t= n k=t n c k e ikω = n n t= n τ= n q k= q E(x t x τ )e i(t τ)ω = 2n + 1 k c k e ikω. 2n

19 A jobboldal Γ(e iω )-hoz tart, ami ezért tehát nemnegatív. tételt beláttuk. Így az előző lemma alapján a A fenti tételből egyszerűen következik az alábbi: Következmény 2.1 Ha (x t ) és (y t ) független MA folyamatok, rendjük q 1 és q 2, akkor (x t + y t ) is MA folyamat, és rendje q =max(q 1, q 2 ). Az 2.1. Lemma bizonyításában elmondottak alapján B(s) meghatározása úgy történik, hogy az s q Γ(s) függvény gyökpárjait tetszőlegesen csoportosítva szorzattá bontjuk: s q Γ(s) = B(s) (s q B( 1 ) s ). Ebből is látható, hogy miért nem egyértelmű az autokovarianciák alapján a MA együtthatók meghatározása. 2.5 ARMA folyamtok Definíció 2.4 Az (x t ) stacionárius folyamat ARMA (autoregresszív mozgóátlag) folyamat, ha léteznek (α i ) és (β j ) számok, hogy x t = α 1 x t 1 +... α p x t p + β 0 e t + β 1 e t 1 +... + β q e t q, (2.9) ahol (e t ) egységnyi szórású fehér zaj. Azt modjuk, hogy (x t ) ARMA(p,q) folyamat. A z időeltolás operátorral a fenti egyenlet így írható: A(z)x t = B(z)e t ahol A(z) = 1 α 1 z... α p z p B(z) = β 0 + β 1 z +... + β q z q. Az eddig elmondottakból következik az alábbi tétel: Tétel 2.3 1). Ha A(z) gyökei az egységkörön kívül vannak, akkor létezik a fenti egyenlettel definiált ARMA folyamat, és ennek létezik MA( ) előállítása. 2). Ha B(z) gyökei az egységkörön kívül vannak, akkor (x t ) invertálható és létezik AR( ) előállítása.

20 Az ARMA felírás nem egyértelmű, hiszen az (2.9) egyenlet mindkét oldalára alkalmazva a z operátor egy r-ed fokú P (z) polinomját, akkor egy másik leírást kapunk. Nevezetesen egy ARMA(p+r,q+r) reprezentációt: Ã(z)x t = B(z)e t, ahol Ã(z) = P (z)a(z) és B(z) = P (z)b(z). Ezért fel szokták tenni, hogy a (2.9) egyenletben szereplő polinomok relatív prímek. Határozzuk meg (x t ) autokovarianciáit. Legyenek c k = E(x t x t k ), d k = E(x t e t k ). Elöször a d k értékeket számoljuk ki. Nyilván d k = 0, k < 0, hiszen x t csak {e t, e t 1,...}-től függ. Megszorozva az (2.9) egyenlet mindkét oldalát e t k - val, k = 0, 1,..., majd várható értéket véve azt kapjuk, hogy d 0 = β 0 d 1 = α 1 d 0 + β 1 d 2 = α 1 d 1 + α 2 d 2 + β 2. d k = α 1 d k 1 +... + α p d k p + β k, tehát d k rekurzívan számolható. Most szorozzuk meg az (2.9) egyenlet mindkét oldalát x t k -val, k = 0, 1,..., majd vegyünk várható értéket. Az alábbi lineáris egyenletrendszert kapjuk: c 0 = α 1 c 1 +... α p c p + β 0 d o + β 1 d 1 +... β q d q c 1 = α 1 c 0 +... α p c p 1 + β 1 d o + β 2 d 1 +... β q d q 1. c q = = α 1 c q 1 +... + α p c p q + +β q d 0. Ez egy lineáris egyenletrendszer (c 0,...c q )-ra, ahol az együttható mátrix ugyanaz, mint a Yule-Walker egyenleteknél. k > q esetén az autokovarianciák egyszerű rekurzióval számolhatók: c k = α 1 c k 1 +... α p c k p. Az autokovarianciák nagyságrendjéről szól az alábbi tétel:

21 Tétel 2.4 Legyen (x t ) egy stacionárius ARMA(p,q) folyamat, (c k ) autokovarianciafüggvénnyel. Ekkor c k Kk p ( 1 R )k, ahol K konstans k-tól független, és az AR részhez tartozó A(z) polinom gyökei az R sugarú körön kívül vannak (tehát R > 1). A tételből következik, hogy stacionárius ARMA folyamatok autokovarianciái exponenciálisan lecsengenek. 2.6 ARIMA folyamatok Az idősor gyakran magában hordozza valaminek a kumulatív hatását. A folyamat csak a megfigyelési szint változásaiért felelős, de nem a szintért. Ebben az esetben a megfigyelési pontok közti különbség lesz stacionárius, tehát az eddig leírt modellekkel jellemzhető. Az ARMA folyamatok körénél egy fokkal általánosabb modellt írnak le az ARIMA folyamatok. Itt a már megismert ARMA részhez egy harmadik, I rész adódik, ami az integrálás rövidítése. Ezzel jellemezzük azt a részt, ami a bolyongáshoz kapcsolódó, nem stacionárius komponenst írja le. Egy általános ARIMA modellt három egész szám, p, d, q jellemez, tehát ARIMA(p,d,q) folyamatról beszélünk. Ekkor az autoregresszív együtthatók száma p, a mozgóátlag együtthatók száma q, és d-szer kell differenciálnunk a sort, hogy stacionáriussá váljon. Például egy ARIMA(0,1,0), (azaz egy I(1) folyamat) egy véletlen bolyongást jelent, ami önmagában általában nem stacionárius. A differenciák sorozata már stacionárius lesz. Általános tapasztalat szerint az integrált modelleknél elegendő egyszer differenciálni a sort ahhoz, hogy stacionáriussá váljon. Néha az is előfordul, hogy a differenciákat még egyszer kell differenciálni, azaz I(2) modellt kell tekinteni. Tulajdonképpen tekinthetnénk egy I(1) folyamatot AR(1) folyamatként is α = 1 együtthatóval. Láttuk azonban, hogy egy AR(1) folyamat stacionaritásához szükséges, hogy α < 1 teljesüljön. Emiatt, 1-hez közeli együttható esetén az autoregresszív folyamat numerikusan igen instabil lesz, könnyebb a folyamat differenciáival dolgozni.

22 3 Stacionárius folyamatok reprezentációja 3.1 Herglotz tétel Az előző fejezetben meghatároztuk annak feltételét, hogy egy véges (c 0, c 1,..., c q ) számsorozat mikor lehet egy q-ad rendű mozgóátlag folyamat autokovariancia függvénye. Most általánosan kimondjuk (bizonyítás nélkül) annak feltételét, hogy egy végtelen (c 0, c 1,...) számsorozat valamilyen stacionárius folyamat autokovariancia függvénye lehessen. Tétel 3.1 (Herglotz tétel). Legyen (c k ) egy valós számsorozat. Ekkor létezik olyan (x t ) stacionárius folyamat, melyre c k = E(x t+k x t ), pontosan akkor, ha c k előállítható a következő alakban: c k = π π e ikλ F (dλ), (3.1) ahol i = 1, és F (dλ) szimmetrikus mérték a [ π, π] intervallumon. A tételben szereplő F mértéket spektrális mértéknek nevezzük. Megjegyzés. Azok számára, akik még nem találkoztak a fenti típusú integrállal, néhány szóban elmondom hogyan értelmezhető az ebben az esetben. Az F (dλ) szimmetrikus mérték azt jelenti, hogy minden A [ π, π] mérhető halmazhoz tartozik egy véges F (A) 0 szám (mérték), melyre F (A B) = F (A) + F (B) ha A B =, F (A) = F ( A). A (3.1) integrált közelítő összegek határértékeként definiáljuk a következőképpen: π π e ikλ F (dλ) = lim n max(δ j ) 0 n e ikλ j 1 F ([λ j 1, λ j ]), j=1 ahol π = λ 0 < λ 1 <... < λ j = π az intervallum egy felosztása, és δ j = λ j λ j 1 a j-dik részintervallum nagysága. Két speciális esetet fogunk megvizsgálni. Elsőként tegyük fel, hogy az F mérték abszolút folytonos a Lebesgue mértékre nézve. Ekkor létezik egy f(λ) integrálható függvény, hogy tetszőleges A [ π, π] mérhető halmaz esetén F (A) = f(λ)dλ. A

23 Ezt az f függvényt spektrális sűrűségfüggvénynek hívjuk. Ekkor c k így állítható elő: c k = π π e ikλ f(λ)dλ, (3.2) ami éppen f Fourier transzformációja (konstanstól eltekintve). Ha az idősor autokovarianciái (3.2) alakban állíthatók elő, akkor azt mondjuk, hogy folytonos spektruma van. Második speciális esetként azt tekintjük, amikor az F mérték néhány pontra van koncentrálva. Legyenek ezek a pontok λ j ɛ[ π, π], λ j = λ j, jɛin. A megfelelő súlyokat jelölje σj 2. (σj 2 = σ j.) 2 Ekkor egy A halmaz mértéke így számolható: F (A) = σj 2. λ j ɛa Ebben az esetben azt mondjuk, hogy az idősornak diszkrét spektruma van. Ekkor a (3.1) integrál összegként számolható a következőképpen: c k = j= σj 2 e ikλ j. Felhasználjuk, hogy az F mérték szimmetrikus, ezért c k így számítható: c k = σ0 2 + σj 2 (e ikλ j + e ikλ j ) = σ0 2 + 2 σj 2 cos(kλ j ). j=1 j=1 3.2 Folytonos spektrum Tegyük fel, hogy az idősor spektruma (3.2) alakban áll elő. Ekkor a (c k ) autokovarianciák ismeretében a spektrális sűrűségfüggvény inverz Fourier transzformációval határozható meg: f(λ) = 1 2π k= Használjuk fel, hogy c k = c k, így azt kapjuk, hogy c k e ikλ. f(λ) = 1 ( ) c 0 + 2 c k cos(kλ). (3.3) 2π k=1

24 1. Példa. Tekintsünk egy (e t ) fehér zaj folyamatot, ennek autokovarianciái: σ 2, k = 0 c k = 0, k 0. Ekkor a (3.3) képlet alapján a spektrális sűrűségfüggvény f(λ) = σ2 2π, azaz konstans lesz. Valóban, elvégezhetjük az ellenőrzést: c 0 = π π σ 2 2π dλ = σ2, c k = σ2 π ( e ikλ dλ = σ2 π π ) cos(kλ)dλ + i sin(kλ)dλ = 0. 2π π 2π π π 2. Példa. Legyen (x t ) elsőrendű mozgóátlag folyamat, azaz x t = β 0 e t + β 1 e t 1, ahol (e t ) egységnyi szórású fehér zaj. Ennek autokovarianciái: c 0 = β 2 0 + β 2 1 c 1 = β 0 β 1, c k = 0, k > 1. Ekkor a spektrális sűrűségfüggvény (3.3) alapján így írható: Egyszerű számolással igazolható, hogy f(λ) = 1 ( β 2 2π 0 + β1 2 + 2β 0 β 1 cos(λ) ) f(λ) = 1 2π β 0 + β 1 e iλ 2. 3. Példa. Tekintsünk most egy AR(1) folyamatot. Legyen x t = αx t 1 + e t,

25 ahol (e t ) σ szórású fehér zaj, α < 1. éspedig: Ennek autokovarianciáit már meghatároztuk, c 0 = σ 2 1 α 2 c k = α k c 0, k > 0. Így a (3.2) képletet alkalmazva azt kapjuk, hogy f(λ) = c ( ) 0 1 + 2 α k cos(λk). 2π k=1 A jobboldalon levő összeg kiszámításához vezessük be a komplex számot. Ekkor azt írhatjuk, hogy z 0 = αe iλ = α(cos(λ) + i sin(λ)) ( ) ( 1 + 2 α k ) cos(λk) = 1 + 2Re z0 k = 2Re z0 k 1. k=1 k=1 k=0 Mivel z 0 = α < 1, ezért a fenti mértani sor konvergens. Azt kapjuk, hogy Némi számolás után végeredményül k=0 f(λ) = σ2 2π adódik. Egyszerűen igazolható az is, hogy f(λ) = c 0 2π z k 0 = 1 1 z 0. 1 1 2α cos(λ) + α 2 1 2 1 αe iλ. A fenti példák után megvizsgáljuk, hogy általában hogyan változik a spektrális sűrűségfüggvény lineáris szűrő hatására. Legyen x t = h j y t j, j=0 h 2 j <, (3.4) j=0

26 és jelöljük a megfelelő autokovarianciákat a következőképpen: c y (k) = E(y t+k y t ), c x (k) = E(x t+k x t ). Tegyük fel, hogy (y t ) folytonos spektrumú, spektrális sűrűségfüggvényét jelöljük f y (λ)-val. Ekkor c y (k) = π π e ikλ f y (λ)dλ. (3.5) A (3.4) egyenletet önmaga eltoltjával megszorozva, azt kapjuk, hogy ( ) E(x t+k x t ) = E h j y t+k j h l y t l = h j h l c y (k j + l). j=0 l=0 j=0 l=0 Helyettesítsük be a fenti egyenletbe a (3.5) előállítást. Összevonás után azt kapjuk, hogy c x (k) = π e ikλ π j=0 l=0 = π e ikλ π j=0 h j h l e i(l j)λ f y (λ)dλ = h j e ijλ 2 f y (λ)dλ. A fenti egyenletben éppen (x t ) autokovarianciáinak spektrál-előállítását kaptuk meg, ezért spektrális sűrűségfüggvénye így írható: f x (λ) = H(e iλ ) 2 f y (λ), (3.6) ahol H(z) = h j z j. j=0 A (3.6) általános összefüggés alapján meghatározhatjuk egy MA(q) folyamat spektrál sűrűségfüggvényét. Ekkor ugyanis x t = β 0 e t +... + β q e t q = B(z)e t, ahol B(z) = β 0 + β 1 z +... β q z q, és (e t ) egységnyi szórású fehér zaj. Mivel (e t ) spektrál sűrűségfüggvénye konstans 1/2π, ezért (x t )-é így számolható: f(λ) = 1 2π B(e iλ ) 2.

27 Hasonlóan belátható, hogy ha (x t ) ARMA(p,q) folyamat, akkor spektrális sűrűségfüggvénye: f(λ) = 1 2π B(e iλ ) 2 A(e iλ, ) ahol (x t ) általános alakját (2.9) adja meg. A fenti típusú függvényeket racionális spektrál sűrűségfüggvénynek nevezzük. 3.3 Diszkrét spektrum Tegyük fel, hogy az (x t ) idősornak diszkrét spektruma van, tehát autokovarianciái így állíthatók elő: c k = σ0 2 + 2 σj 2 cos(kλ j ). (3.7) j=1 Az előző fejezetben láttuk, hogy azok a stacionárius idősorok, amikkel eddig foglalkkoztunk (AR, MA, ARMA), mind folytonos spektrummal rendelkeznek. A következő állításban példát mutatunk olyan idősorra, aminek diszkrét spektruma van. Állítás 3.1 Tekintsünk egy (x t ) idősort, amely így áll elő: x t = A 0 + (A j cos(λ j t) + B j sin(λ j t)), (3.8) j=1 ahol (A j, B j ) független, 0 várható értékű, σ j 2 szórású valószínűségi változók. Ekkor (x t ) autokovariancia függvénye (3.7) alakban írható. A fenti állítás szerint a diszkrét spektrum azt jelenti, hogy az idősor véletlen periodusok összegeként áll elő. Bizonyítás. A (3.8) egyenlethez hasonlóan azt írhatjuk, hogy x t+k = A 0 + (A j cos(λ j (t + k)) + B j sin(λ j (t + k))). (3.9) j=1 Szorozzuk össze a (3.8) és (3.9) egyenleteket, és vegyünk várható értéket. Mivel 0 j l E(A j A l ) = j = l, E(A j B l ) = 0, 2σ 2 j

28 azt kapjuk, hogy c k = σ0 2 + 2 σj 2 {cos(λ j (t + k)) cos(λ j t) + sin(λ j (t + k)) sin(λ j t)} j=1 = σ0 2 + 2 σj 2 cos(λ j k). j=1 Közben a felhaszsnáltuk a jól ismert trigonometrikus azonosságot cos{λ j (t + k) λ j t} kiszámítására. Tekintsük azt az esetet, amikor az idősor véges sok véletlen periodus összegeként áll elő. Tegyük fel, hogy az (3.8) előállításban A 0 = 0, és legyen a véges spektrum λ 1,..., λ m. Megjegyezzük, hogy ekkor (x t ) az alábbi alakban is írható: m x t = a j cos(λ j t + ϕ j ), (3.10) j=1 ahol (a j, ϕ j ) függetlenek. a j 0 várható értékű, normális eloszlású valószínűségi változó σ j szórással, ϕ j pedig egyenletes eloszlású a [ π, π] intervallumban. A (3.8) és (3.10) felírások ekvivalenciája a következőképpen látható. Írjuk fel, hogy a j cos(λ j t + ϕ j ) = (a j cos(ϕ j )) cos(λ j t) + ( a j sin(ϕ j )) sin(λ j t). Legyen A j = a j cos(ϕ j ) és B j = a j sin(ϕ j ). Ekkor figyelembe véve, hogy E(cos 2 ϕ j ) = 1 2, E(sin2 ϕ j ) = 1 2, E(cos ϕ j sin ϕ j ) = 0, következik, hogy A j és B j a kívánt tulajdonságúak. Tovább egyszerűsítjük a modellt, ami tekintünk. Tegyük fel, hogy (x t ) ilyen alakban áll elő: m x t = a 0 + (a j cos(λ j t) + b j sin(λ j t)) + e t, (3.11) j=1 ahol a k, b k, λ k konstansok, (e t ) pedig fehér zaj. Az ilyen alakú folyamatokat rejtett periodusú idősornak nevezzük, a rejtett periodusok λ 1,..., λ m. Legyen adott a fenti idősor egy véges megfigyelése: (x 1, x 2,..., x N ). Tegyük fel, hogy m és λ 1,..., λ m ismertek. Ekkor a megfigyelések alpján az (a j, b j ) együtthatók legkisebb négyzetes becslése könnyen meghatározható, mint az alábbi minimumfeladat megoldása: ( N ) min (x t a k cos(λ k t) b k sin(λ k t)) 2. a k, b k t=1

29 Egyszerű számolással azt kapjuk, hogy ezek a becslések a következők: â j = 2 N b j = 2 N n x t cos(λ j t) (3.12) t=1 n x t sin(λ j t). (3.13) t=1 Természetes kérdés, hogy hogyan lehet a rejtett periodusokat becsülni véges mintából. Ehhez bevezetjük a következő fogalmat: Definíció 3.1 Az empirikus idősor periodogramja egy [ π, π] ben értelmezett függvény, melyet tetszőleges λɛ[ π, π] esetén így definiálunk: I N (λ) = A 2 (λ) + B 2 (λ) = 2 N 2 x N t e iλt, t=1 ahol A(λ) = 2 N N x t cos(λt), B(λ) = t=1 2 N N x t sin(λt). t=1 Egyszerűen igazolható, hogy a periodogram közvetlenül számolható az autokovariancák becsléseiből. Erről szól a következő lemma: Lemma 3.1 Tetszőleges λɛ[ π, π] esetén teljesül, hogy N 1 I N (λ) = 2 ĉ k cos(λk), k=0 ahol ĉ k = 1 N N k t=1 x t x t+k. Fontos észrevétel, hogy ha a periodogramot éppen a rejtett periodusokhoz tartozó pontokban számoljuk ki, akkor A(λ k ) = N 2 âk, B(λ k ) = N b k 2 adódik, ahol a â k ill. b k becsléseket (3.12) és (3.13) adta meg. Ezen a megfigyelésen alapul a következő állítás:

30 Állítás 3.2 Tegyük fel, hogy a mintabeli megfigyelések száma végtelenbe tart. Ekkor a periodogram határértékére lim I N(λ) = N 0 λ λ k k = 1,..., m + λ = λ k valamilyen k ra adódik. A fenti konvergencia sztochasztikus értelemben értendő. Numerikus számításoknál a periodogramot a λ = 0, 2π N, 4π,... helyeken értékelik N ki. Nagy mintaszám esetén a periodogram kiugró értékei nagy valószínűséggel rejtett frekveniákat jelentenek. Ezek tesztelésére a Fisher próbát használják, ennek leírása megtalálható például az [?] könyvben. Röviden összefoglaljuk ennek lényegét. R. Fisher dolgozott ki egy statisztikai próbát annak vizsgálatára, hogy egy (3.9) alakú idősor tartalmaz-e rejtett periódusokat. Ez a próba csak akkor végezhető el, ha a fehér zaj normalitása feltehető. A nullhipotézis ekkor a következőképpen fogalmazható meg: H 0 : a o = a 1 =... = a p = b 1 =... = b p = 0. Tegyük fel, hogy az idősor páratlan számú elemet tartalmaz (egyébként az elsőt vagy az utolsót elhagyjuk), azaz N = 2m + 1. Tekintsük az I N (λ) periodogram λ r = 2πr 2m + 1 helyein felvett értékeit, legyen u r = I N (λ r ). Definiáljuk a z valószínűségi változót a következőképpen: z = max r u r m. u k k=1 Bebizonyítható, hogy z eloszlása így számolható: ( ) m P (z > x) = m(1 x) m 1 (1 2x) m 1 + 2 ( ) m (1 3x) m 1... 3 ahol az összegzés csak addig megy, míg a jobboldalon levő zárójeles kifejezésekben (a hatványmennyiségek alapjában) pozitív számokat kapunk. A fenti összeg tehát minden x mellett csak véges sok tagból áll. Így meghatározható az a z α szám, amelyre P (z > z α ) = α

31 teljesül, és ha konkrét x 1,..., x N megfigyelés alapján számított z nagyobb z α -nál, akkor elvetjük a nullhipotézist, míg z z α esetben nincs ellentmondás adataink és H 0 között. 4 Paraméterbecslés 4.1 AR paraméterek legkisebb négyzetes becslése Tekintsünk egy x t = α 1 x t 1 +... α p x t p + e t (4.1) autoregresszív folyamatot, ahol (e t ) σ szórśú normális eloszlású fehér zaj. A fenti egyenletben szereplő α j együtthatók becslésére a legkisebb négyzetek módszere (LKN), ill. annak rekurzív alakja alkalmazható, melyet az idősor x 0, x 1, x 2,..., x n szelete alapján fogunk meghatározni. Vezessük be a θ = (α 1,..., α p ) T y(t) = (x t 1,..., x t p ) T vektorokat. Ekkor a (4.1) egyenlet az x t = y(t) T θ + e t lineáris regressziós alakban írható. Képezzük az X = x p. x n, Y = y(p) T. y(n) T, u = e p. e n vektorokat illetve mátrixot. Ezekkel a fenti modell X = Y θ + u (4.2) alakban írható. A legkisebb négyzetes módszer lényege, hogy azt a θ paramétert választjuk ki, amelyre az X Y θ különbség bizonyos értelemben minimális. Ez azt jelenti, hogy a V (θ) = (X Y θ) T (X Y θ)

32 véletlen költségfüggvény minimumát keressük. Jelölje a minimalizáló értéket θ. Ezt úgy tudjuk meghatározni, hogy kiszámoljuk V (θ) gradiensének nullhelyét. A deriválandó függvény tehát: V (θ) = X T X 2X T Y θ + θ T Y T Y θ. Ennek θ szerinti deriváltja (a deriválást alsó indexben jelöljük): V θ (θ) = 2X T Y + 2θ T Y T Y. Ennek az egyenletnek a megoldása lesz θ. Ekkor igaz az alábbi tétel: Tétel 4.1 A valódi paraméter kielégíti az Y T Y θ Y T X = 0 (4.3) véletlen normálegyenlet várható értékét, azaz E(Y T Y θ Y T X) = 0. Bizonyítás. Helyettesítsük be a (4.2) modellt a normálegyenlet baloldalába: Y T Y θ Y T X = Y T Y θ Y T (Y θ + u) = = Y T Y (θ θ ) Y T u. Így θ = θ mellett az első tag 0 lesz. A második tag várható értékére n E(Y T u) = E( y(k)e k ) = 0 k=p adódik y(k) definíciója miatt. Tehát n megfigyelés alapján a θ n LKN becslés a (4.3) normálegyenlet megoldásaként így számolható: θ n = (Y T Y ) 1 Y T X, (4.4) feltéve, hogy a képletben szereplő inverz létezik. A fenti jelöléseket módosítsuk annyiban, hogy jelezzük Y (n), X(n) is n-től függ. Bizonyítás nélkül kimondjuk az alábbi lemmát:

33 Lemma 4.1 Legyen A(z) a (4.1) egyenlethez tartozó polinom, azaz Tegyük fel, hogy A(z) stabil. Ekkor A(z) = 1 α 1 z α 2 z 2... α p z p. 1 lim n n Y T (n)y (n) Φ egy valószínűséggel valamilyen Φ p p dimenziós mátrix-szal. Mivel a (4.3) normálegyenlet így alakítható: Y T (n)y (n)θ Y T (n)x(n) = Y T (n)y (n)θ Y T (n)(y (n)θ + u(n)) = ezért a nagy számok törvénye miatt = Y T (n)y (n)(θ θ ) Y T (n)u(n), 1 ( Y T (n)y (n)θ Y T (n)x(n) ) Φ (θ θ ), n és a konvergencia θ-ban egyenletes. Ezzel beláttuk az alábbi tétel első felét: Tétel 4.2 Tegyük fel, hogy Φ nemszinguláris. Ekkor lim θ n = θ, n 1 valószínűséggel, tehát a LKN becslés erősen konzisztens. Továbbá, a becslés aszimptotikus szórásmátrixa is meghatározható: lim ne( θ n θ )( θ n θ ) T = σ 2 Φ 1. n A tétel második része az elsőhöz hasonlóan igazolható. A fenti becslés könnyen rekurzívvá tehető. Ez azt jelenti, hogy ha n megfigyelés alapján már kiszámoltuk a θ n becslést, akkor az n + 1-dik megfigyelés után nem kezdjük újra a számolást, hanem θ n értékét felhasználva számoljuk ki a következő θ n+1 becslést. A rekurzió felírásához vezessük be az U(n) = 1 n Y T (n)y (n) jelölést.

34 Tétel 4.3 A rekurziós egyenletek így írhatók: U(n) = U(n 1) + 1 ( y(n)y T (n) U(n 1) ) n (4.5) θ n = θ n 1 + 1 n U 1 (n)y(n) ( x n y T (n) θ ) n 1. (4.6) Bizonyítás. Az U(n)-re vonatkozó rekurzió közvetlenül következik a definícióból, miszerint U(n) = 1 n y(k)y T (k). n k=1 A (4.6) egyenlet igazolásához írjuk fel a (4.4) becslést részletesen: ( n ) 1 n θ n = y(k)y T (k) y(j)x j, k=1 j=1 amiből az következik, hogy ( n ) n y(k)y T (k) θ n = y(j)x j. (4.7) k=1 j=1 Ezek után szorozzuk meg a (4.6) egyenlet mindkét oldalát balról az n n U(n) = y(k)y T (k) k=1 mátrix-szal. θ n (4.7) előállítását felhasználva azt kapjuk, hogy n n 1 y(j)x j = y(j)x j + y(n)y T (n) θ n 1 + y(n)(x n y T (n) θ n 1 ), j=1 j=1 ami láthatóan azonosság. A fenti rekurzióban minden lépésben újra kell számolni az U mátriz inverzét. A rekurziót úgy tehetjük teljessé, hogy az inverz felújítási szabályát adjuk meg. Mivel minden lépésben egy diáddal változik a mátrix, felhasználjuk az alábbi igen hasznos lemmát: Lemma 4.2 Legyen A egy n n dimenziós reguláris mátrix, u pedig egy n dimenziós vektor. Ekkor (A + uu T ) 1 = A 1 A 1 uu T A 1 1 + u T A 1 u.

35 Bizonyítás. Egyszerű beszorzással igazolható. Valóban, (A 1 A 1 uu T A 1 ) 1 + u T A 1 (A + uu T ) = u Vezessük be a = I A 1 uu T 1 + u T A 1 u + A 1 uu T A 1 u(u T A 1 u)u T 1 + u T A 1 = u = I + A 1 uu ( T 1 1 + u T A 1 u + 1 (ut A 1 ) u) 1 + u T A 1 = I. u P (n) = 1 ( n ) n U 1 1 (n) = y(k)y T (k) k=1 jelölést. Ekkor a fenti lemma segítségével a P (n)-re vonatkozó rekurzió így írható: P (n) = P (n 1) P (n 1)y(n)yT (n)p (n 1). (4.8) 1 + y T (n)p (n 1)y(n) A legkisebb négyzetes becslés rekurzív változatát tehát a (4.6) és (4.8) egyenletek adják. Megjegyzés A LKN módszert formálisan autoregresszív-mozgóátlag (ARMA) folyamatok identifikálására is alkalmazhatjuk úgy, hogy a mozgóátlag részt fehér zajként kezeljük. Ekkor azonban a becslés aszimptotikusan torzított lesz. Megjegyzés A LKN módszernek van egy olyan változata is, amelyben a régi adatokból adódó négyzetes hibatagot exponenciálisan csökkenő súllyal vesszük figyelembe. Ez a módszer az alapja azoknak az eljárásoknak, amikkel időben változó paraméterű folyamatok paramétereit lehet követni. 4.2 ARMA folyamat maximum likelihood identifikációja A LKN módszerhez hasonlóan a maximum likelihood (ML) becslés is szerepelt már érintőlegesen a II. éves statisztika tantágy anyagában. Ez az angol nyelvű elnevezés annyira elterjedt a szakirodalomban, hogy mi is ezt használjuk. Magyarra talán úgy fordíthatnánk, hogy paraméterbecslés a legnagyobb valószínűség elve alapján. Ez alatt a következőt értjük: a megfigyelt idősor egy elméleti idősornak valamely realizációja.

36 Feltételezésünk szerint az elméleti idősor leírásában egy ismeretlen θ paraméter szerepel (ilyen paraméter lehet például a várható érték, a szórás, vagy az ARMA leírásban szereplő α i, β j paraméterek, esetleg ezek száma is). Tetszőleges paraméterválasztás mellett az (x 1,...x n ) elméleti idősor egy olyan n dimenziós valószínűségi változóval írható le, aminek eloszlása a paraméterek függvényében megadható. Így kiszámolható, hogy egy rögzített θ mellett mi annak a valószínűsége, hogy épp a kezünkben levő empirikus idősort kapjuk. Pontosabban, ha (x t ) folytonos eloszlású valószínűségi változókból áll, akkor a sűrűségfüggvény megfigyelési pontokban felvett értékét tekintjük. Ha f θ -val jelöljük azt a sűrűségfüggvényt, ami a θ paraméterű modellhez tartozik, az x 1,...x n megfigyelések alapján kiszámolható a következő függvény: L(x 1, x 2,.., x n, θ) = f θ (x 1, x 2,..., x n ). Ezt a függvényt likelihood függvénynek hívjuk. maximalizáljuk θ-ban. A ML eljárás során ezt a függvényt Sok esetben a fenti függvény helyett numerikusan egyszerűbb kiszámolni a likelihood függvény logaritmusának a maximumhelyét. A minimalizálandó függvényt ekkor log-likelihood függvénynek hívjuk. Speciális esetként tegyük fel, hogy (x t ) független, azonos eloszlású valószínűségi változókból áll, melynek sűrűségfüggvénye f(x, θ), ahol θ egy ismeretlen paraméter. Ekkor a likelihood függvény: n L(x 1, x 2,..., x n, θ) = f(x i, θ). i=1 Ennek logaritmusa a log-likelihood függvény: n log L(x 1, x 2,..., x n, θ) = log f(x i, θ), i=1 és ezt kell maximalizálni θ-ban. Ha például (x t ) normális eloszlású egységnyi szórásssal és ismeretelen várható értékkel, akkor f(x, θ) = 2 2π e 1 2 (x θ)2, ahol θ az ismeretlen várható értéket jelöli. A negatív log-likelihood függvény pedig, amit minimalizálni kell a következő: log L(x 1, x 2,..., x n, θ) = n n 2 log(2π) + (x i θ) 2 i=1

37 Könnyen látható, hogy a ML becslés ebben az esetben a számtani átlaggal esik egybe. Mielőtt rátérnénk a ML becslés tárgyalására ARMA folyamatok esetén, röviden összefoglaljuk a többdimenziós normális eloszlással kapcsolatos ismereteinket. Definíció 4.1 Egy ξ = (ξ 1,..., ξ n ) n-dimenziós valószínűségi változó standard normális eloszlású, ha koordinátái független standard normális eloszlású skalár valószínűségi változók. Ezt úgy jelöljük, hogy ξ N n (0, I). Ennek a véletlen vektornak a sűrűségfüggvénye ϕ n (z) = (2π) n/2 exp( 1 2 z 2 ) Definíció 4.2 Egy ηɛir p p-dimenziós valószínűségi változó normális eloszlású, ha létezik olyan A p n dimenziós mátrix, µ p-dimenziós valós vektor és ξ n-dimenziós standard normális eloszlású valószínűségi változó, melyekre η = Aξ + µ. Tegyük fel, hogy a normális eloszlású η valószínűségi változó várható értéke µ, szórásmátrixa Σ invertálható. Ekkor sűrűségfüggvénye f(z) = (2π) n/2 det(σ) 1/2 exp( 1 2 (z µ)t Σ 1 (z µ)). Ezt úgy jelöljük, hogy ξ N n (µ, Σ). Tekintsünk egy ARMA(p,q) folyamatot: A (z)x t = B (z)e t ahol A (z) = 1 + α1z +... αpz p B (z) = 1 + β1z +... + βq z q és (e t ) standard normális eloszlású fehér zaj. Feltesszük, hogy az A és B polinomok stabilak (azaz gyökeik az egységkörön kívül vannak).

38 Az A (z) és B (z) polinomok együtthatóinak maximum likelihood becslését fogjuk megadni azon feltétel mellett, hogy {x t, e t, t 0} szükséges számú értéke adott, pl. x t = e t = 0 ha t 0. Az ismeretlen paramétereket gyűjtsük össze egy θ vektorba, azaz legyen θ = (α 1,...α p, β 1,..., β q ) T. Jelölje D IR p+q azon paraméterek halmazát, melyekre a megfelelő polinomok stabilak. Mivel feltettük a fehér zaj normalitását, ezért (x 1,...x n ) is normális eloszlású lesz, 0 várható értékkel és valamilyen Σ(θ ) szórással. Ennek sűrűségfüggvénye ( f(x 1, x 2,..., x n ) = (2π) n/2 (detσ(θ )) 1/2 exp 1 ) 2 xt Σ(θ ) 1 x, ahol x = (x 1, x 2,..., x n ) T. A negatív log-likelihood függvény tehát L(x 1, x 2,..., x n, θ) = n 2 log(2π) + 1 2 log detσ(θ ) + 1 2 xt Σ(θ) 1 x. Bizonyítás nélkül elmondjuk, hogy ez a log-likelihood függvény hogyan határozható meg az idősorból. A ML eljárás során az ismert (x t ) folyamat segítségével egy tetszőleges θɛd paraméterből kiindulva megpróbáljuk rekonsruálni az (e t ) zajfolyamatot. Nevezetesen, legyen θ = (α 1,...α p, β 1,..., β q ) T egy megfelelő paraméter, a hozzá tartozó operátorok A(z) = 1 + α 1 z +...α p z p, B(z) = 1 + β 1 z +...β q z q. Definiáljuk a (θ-tól függő) (ε t (θ)) folyamatot a következőképpen: ε t (θ) + β 1 ε t 1 (θ) +... + β q ε t q (θ) = x t + α 1 x t 1 +... x t p, (4.9) azaz legyen B(z)ε t (θ) = A(z)x t. Ekkor igazolható, hogy a negatív log-likehood függvényt konstanstól eltekintve a V n (θ) = 1 n ε 2 t (θ) 2 t=1 kifejezés adja meg. Ennek a függvénynek a minimumhelyét kell megkeresni, amit gyakorlatilag úgy végzünk el, hogy a derivált nullhelyét Newton-módszerrel közelítjük. Ehhez szükségünk van a fenti költségfüggvény második deriváltjára is. Deriváljuk a (4.9) egyenletet az ismeretlen paraméterek szerint. Ami szerint deriválunk, alsó indexben fogjuk jelölni: ε βj,t(θ) + β 1 ε βj,t 1(θ) +... + β q ε βj,t q(θ) = ε t j (θ) ε αk,t(θ) + β 1 ε αk,t 1(θ) +... + β q ε αk,t q(θ) = x t k.

39 Jelöljük η t (θ)-val a derivált (vektor) folyamatot. Ekkor az előző összefüggések tömören így írhatók: η t (θ) + β 1 η t 1 (θ) +... + β q η t q (θ) = ϕ(t) (4.10) ahol ϕ(t) = ( ε t 1 (θ),..., ε t q (θ), x t 1,..., x t p ) T. Az off-line ML becslést úgy értelmezzük tehát, mint a V n (θ) függvényminimumhelyét, amit V θ,n (θ) gyökeként határozunk meg. Ez a függvény: V θ,n (θ) = melynek gyökét θ n -nel jelöljük. n ε t (θ)η t (θ), t=1 Megjegyzés. Mivel V n (θ) véletlen függvény, ezért előfordulhat, hogy minimumhelye D-n kívül esik. Ezért kicsit módosítjuk θ n definícióját: Pontosabban, θ n legyen V n (θ) minimumhelye, ha ez D belsejébe esik, egyébként legyen tetszőleges D belsejébe eső paraméter. Bizonyítás nélkül közöljük az alábbi tételt: Tétel 4.4 Legyen θ n θ maximum likelihood becslése n elemű minta alapján ekkor n( θ n θ ) N (0, R), ahol R egy később megadandó mátrix. konzisztens. Tehát a maximum likelihood becslés erősen A θ-ra tett feltevésünk miatt értelmezhető egy aszimptotikus költségfüggvény, mivel létezik a határérték. Legyen tehát 1 lim n n n t=1 ε 2 1 t (θ) = lim t 2 Eε2 t (θ) W (θ) = 1 n lim n V 1 n(θ) = lim t 2 Eε2 t (θ). Ezt aszimptotikus log-likehood függvénynek nevezzük. tétel: Könnyen igazolható a következő Tétel 4.5 Az igazi paraméter W (θ)-nak globális minimuma, továbbá d dθ W (θ) θ=θ = 0, d 2 dθ 2 W (θ) θ=θ 0.