lineáris folyamatokkal

Hasonló dokumentumok
DIFFERENCIAEGYENLETEK

3. Lineáris differenciálegyenletek

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

15. LINEÁRIS EGYENLETRENDSZEREK

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Determinánsok. A determináns fogalma olyan algebrai segédeszköz, amellyel. szolgáltat az előbbi kérdésekre, bár ez nem mindig hatékony.

Gauss-Seidel iteráció

Egyenletek, egyenlőtlenségek VII.

Lineáris algebra numerikus módszerei

KOVÁCS BÉLA, MATEMATIKA I.

Vektorok, mátrixok, lineáris egyenletrendszerek

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

Diszkrét matematika II., 8. előadás. Vektorterek

Lineáris egyenletrendszerek

Komplex számok. Wettl Ferenc előadása alapján Wettl Ferenc előadása alapján Komplex számok / 18

Bevezetés az algebrába 2

A maximum likelihood becslésről

A parciális törtekre bontás?

Matematikai geodéziai számítások 6.

Matematikai geodéziai számítások 5.

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Folytonos rendszeregyenletek megoldása. 1. Folytonos idejű (FI) rendszeregyenlet általános alakja

2010. október 12. Dr. Vincze Szilvia

Matematikai geodéziai számítások 6.

y + a y + b y = r(x),

Gauss elimináció, LU felbontás

KOVÁCS BÉLA, MATEMATIKA I.

Autoregresszív és mozgóátlag folyamatok. Géczi-Papp Renáta

8. Egyenletek, egyenlőtlenségek, egyenletrendszerek II.

Autoregresszív és mozgóátlag folyamatok

előadás Idősorok elemzése

1.1. Vektorok és operátorok mátrix formában

1. zárthelyi,

2013 ŐSZ. 1. Mutassa be az egymintás z-próba célját, alkalmazásának feltételeit és módszerét!

1. Homogén lineáris egyenletrendszer megoldástere

Matematika A2 vizsga mgeoldása június 4.

Tartalom. Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás

Differenciálegyenletek. Vajda István március 4.

Lineáris algebra 2. Filip Ferdinánd december 7. siva.banki.hu/jegyzetek

Bevezetés az algebrába 2 Differencia- és differenciálegyenlet-rendszerek

Matematikai geodéziai számítások 5.

Tartalomjegyzék. Tartalomjegyzék Valós változós valós értékű függvények... 2

17. előadás: Vektorok a térben

Bevezetés az állapottér-elméletbe Dinamikus rendszerek állapottér reprezentációi

Lineáris leképezések (előadásvázlat, szeptember 28.) Maróti Miklós, Kátai-Urbán Kamilla

Mátrixok 2017 Mátrixok

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

Diagnosztika és előrejelzés

Matematika III. harmadik előadás

A KroneckerCapelli-tételb l következik, hogy egy Bx = 0 homogén lineáris egyenletrendszernek

Nagy Gábor compalg.inf.elte.hu/ nagy

Hódmezővásárhelyi Városi Matematikaverseny április 14. A osztályosok feladatainak javítókulcsa

A mérési eredmény megadása

Diszkrét matematika 2.

1 Lebegőpontos számábrázolás

Továbblépés. Általános, lineáris modell. Példák. Jellemzık. Matematikai statisztika 12. elıadás,

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.

II. Két speciális Fibonacci sorozat, szinguláris elemek, természetes indexelés

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Taylor-polinomok. 1. Alapfeladatok április Feladat: Írjuk fel az f(x) = e 2x függvény másodfokú Maclaurinpolinomját!

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)

DIFFERENCIÁLEGYENLETEK. BSc. Matematika II. BGRMA2HNND, BGRMA2HNNC

6. Előadás. Megyesi László: Lineáris algebra, oldal. 6. előadás Bázis, dimenzió

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Függvények növekedési korlátainak jellemzése

PTE PMMFK Levelező-távoktatás, villamosmérnök szak

LINEÁRIS EGYENLETRENDSZEREK október 12. Irodalom A fogalmakat, definíciókat illetően két forrásra támaszkodhatnak: ezek egyrészt elhangzanak

4. SOROK. a n. a k (n N) a n = s, azaz. a n := lim

λx f 1 (x) e λx f 2 (x) λe λx f 2 (x) + e λx f 2(x) e λx f 2 (x) Hasonlóan általában is elérhető sorműveletekkel, hogy csak f (j)

Eddig csak a polinom x-ben felvett értékét kerestük

9. Előadás. Megyesi László: Lineáris algebra, oldal. 9. előadás Mátrix inverze, Leontyev-modell

9. Előadás. Megyesi László: Lineáris algebra, oldal. 9. előadás Mátrix inverze, mátrixegyenlet

1.9. B - SPLINEOK B - SPLINEOK EGZISZTENCIÁJA. numerikus analízis ii. 34. [ a, b] - n legfeljebb n darab gyöke lehet. = r (m 1) n = r m + n 1

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Oktatási Hivatal. 1 pont. A feltételek alapján felírhatók az. összevonás után az. 1 pont

BIOMATEMATIKA ELŐADÁS

Numerikus matematika vizsga

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Keresztmetszet másodrendű nyomatékainak meghatározása

Egészrészes feladatok

Diszkrét matematika 2.C szakirány

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Saj at ert ek-probl em ak febru ar 26.

2. Hogyan számíthatjuk ki két komplex szám szorzatát, ha azok a+bi alakban, illetve trigonometrikus alakban vannak megadva?

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

Sorozatok, sorok, függvények határértéke és folytonossága Leindler Schipp - Analízis I. könyve + jegyzetek, kidolgozások alapján

Intergrált Intenzív Matematika Érettségi

0-49 pont: elégtelen, pont: elégséges, pont: közepes, pont: jó, pont: jeles

Statisztika elméleti összefoglaló

Sorozatok I. Brósch Zoltán (Debreceni Egyetem Kossuth Lajos Gyakorló Gimnáziuma)

12. Mikor nevezünk egy részhalmazt nyíltnak, illetve zártnak a valós számok körében?

Differenciálegyenletek megoldása próbafüggvény-módszerrel

Átírás:

Eötvös Loránd Tudományegyetem Természettudományi Kar Modellezés egy- és többdimenziós lineáris folyamatokkal Szakdolgozat Készítette: Zámbó Anita Matematika BSc, Matematikai elemző szakirány Témavezető: Prőhle Tamás Matematika Intézet Valószínűségelméleti és Statisztika Tanszék Budapest 2015

NYILATKOZAT Név: Zámbó Anita ELTE Természettudományi Kar, szak: Matematika BSc ETR azonosító: BTLDMC Szakdolgozat címe: Modellezés egy- és többdimenziós lineáris folyamatokkal A szakdolgozat szerzőjeként fegyelmi felelősségem tudatában kijelentem, hogy a dolgozatom önálló munkám eredménye, saját szellemi termékem, abban a hivatkozások és idézések standard szabályait következetesen alkalmaztam, mások által írt részeket a megfelelő idézés nélkül nem használtam fel. Budapest, 2015 május 29. a hallgató aláírása i

Tartalomjegyzék Címlap 1 Nyilatkozat Tartalomjegyzék Bevezetés i ii iv 1. Alapvető fogalmak 1 1.1. Bevezető..................................... 1 1.2. Gyakran használt operátorok......................... 1 1.3. Lineáris szűrő modell.............................. 2 1.4. Autoregresszív modellek............................ 2 1.5. Mozgóátlag modellek.............................. 4 1.6. Összetett autoregresszív-mozgóátlag modellek................ 5 2. Lineáris stacionárius modellek tulajdonságai 6 2.1. Lineáris modellek tulajdonságai........................ 6 2.1.1. Az AR és az MA paraméterek közti kapcsolat............ 7 2.1.2. Lineáris folyamatok autokovariancia generátorfüggvénye...... 8 2.1.3. Lineáris folyamatok stacionaritási és invertálhatósági feltétele... 8 2.2. Autoregresszív folyamatok........................... 9 2.2.1. AR folyamatok stacionaritási és invertálhatósági feltételei...... 9 2.2.2. Autoregresszív folyamatok autokorreláció függvénye......... 11 2.2.3. Autoregresszív paraméterek az autokorreláció függvényében.... 12 2.2.4. Variancia................................ 13 2.2.5. Elsőrendű autoregresszív (Markov) folyamat............. 13 2.2.6. Másodrendű autoregresszív folyamat................. 14 2.2.7. Parciális autokorreláció függvény................... 15 2.3. Mozgóátlag folyamatok............................. 17 2.3.1. MA folyamatok stacionaritási és invertálhatósági feltételei..... 17 2.3.2. Mozgóátlag folyamatok autokorreláció függvénye........... 18 2.3.3. Elsőrendű mozgóátlag folyamat.................... 19 2.3.4. Másodrendű mozgóátlag folyamat................... 20 2.4. Dualitás az autoregresszív és mozgóátlag folyamatok között......... 21 2.5. Autoregresszív-mozgóátlag folyamatok.................... 22 2.5.1. Stacionaritási és invertálhatósági feltételek.............. 22 2.5.2. Autokorreláció függvény........................ 24 2.5.3. Variancia................................ 24 2.5.4. Parciális autokorreláció függvény................... 25 2.5.5. Az ARMA(1,1) folyamat....................... 25 3. VARMA modell 28 3.1. Vektor ARMA folyamatok........................... 28 3.2. Polinom mátrixok tulajdonságai........................ 29 3.3. VARMA folyamatok Kronecker indexei.................... 31 ii

3.4. VARMA folyamatok echelon formája..................... 31 3.5. VARMA folyamatok kanonikus formái.................... 33 4. VARMA becslés 36 4.1. Az algoritmus paramétereinek felépítése.................... 36 4.2. A Dufour-Pelletier féle három lépéses algoritmus............... 41 4.3. Egy tesztfuttatás és az eredménye....................... 43 Irodalomjegyzék 46 iii

Bevezetés Bevezetés Az első két fejezet az egydimenziós ARMA folyamatokkal kapcsolatos legfontosabb tudnivalókat foglalja össze. E fejezetek anyaga kevéssel halad túl az egyetemi tananyag keretein. Inkább csak annak nagyobb részletezésében, kisebb kiegészítéseiben van jelentősége. Az első fejezet a lineáris folyamatokkal kapcsolatos alapfogalmakat, a második az egydimenziós AR, MA és ARMA folyamatok néhány fontos tulajdonságát foglalja össze. A dolgozat harmadik és negyedik fejezete többdimenziós lineáris folyamatokkal foglalkozik. A többdimenziós lineáris folyamat formálisan az egydimenziósakkal azonos strukturájú. Ám az, hogy a többdimenziós polinom mátrixok szorzása szemben az egydimenziós esettel nem kommutatív, minőségbelileg új helyzetet jelent. Többek között azzal a következménnyel, hogy e folyamatok identifikálásához a fokszám megadásán kívül olyan feltételekre is szükség van, amelyek az egydimenziós feltételek ismeretében teljességgel váratlanok. Nevezetesen ahhoz, hogy egy VARMA (vektor ARMA) formában felírt folyamat egyértelmű legyen nem elégséges a fokszámok megadása, hanem további, egészen más jellegű egyértelműsítő feltételek is szükségesek. A harmadik fejezet a többdimenziós ARMA folyamatok néhány egyértelműsítő módszerét mutatja be. A negyedik fejezet a többdimenziós ARMA, azaz a VARMA folyamatok egy, a szokványos kétlépéses, regresszión alapuló becslő módszerét egy újabb lépéssel módosító eljárását ismerteti. A fejezet végén az előzőekben leírt háromlépéses módszer egy megvalósítását és teszt futtatását ismerteti. iv

1. Alapvető fogalmak Fejezet 1 1.1. Bevezető A valóságban sok problémát időtől függő változónak kell tekintenünk, melyekben rengeteg az olyan ismeretlen tényező, amelyek jövőbeni viselkedésének becslésére nem írhatunk determinisztikus modellt. Mindazonáltal lehetséges olyan modellek építése, levezetése, amelyekkel meghatározhatjuk a folyamat jövőbeni értékekét adott hibahatárok között. Az ilyen modelleket valószínűségi vagy sztochasztikus modellnek nevezzük. Fontos, hogy különbséget tegyünk a valószínűségi modell és a sztochasztikus folyamat, vagyis az úgynevezett megfigyelt idősor között. Az N egymást követő megfigyelésből álló y 1,..., y N idősort úgy tekintjük, mint egy sokdimenziós valószínűségi változó megfigyelését, ahol az egyes dimenziók, azaz y k értékek egymástól nem feltétlenül függetlenek. A 3. és 4. fejezetben olyan esetekkel is foglalkozni fogunk, ahol az egyes koordináták, az y k értékek maguk is többdimenziósak. A sztochasztikus folyamatot leggyakrabban egyszerűen csak folyamatnak nevezzük. Az idősorok sztochasztikus modelljeinek egy figyelemreméltó és fontos csoportját alkotják az úgynevezett stacionárius modellek, melyeknél feltételezzük, hogy a folyamat egyensúlyban marad egy konstans átlagos szint mentén. Ebben a dolgozatban is az ebbe a csoportba tartozó folyamatokat tárgyaljuk. Emellett egy másik fontos csoportot alkotnak a nemstacionárius modellek, melyeket gyakran alkalmaznak például az iparban, az üzleti életben és gazdaságban, ahol számos idősor gyakran jobban jellemezhető nemstacionárius modellekkel. 1.2. Gyakran használt operátorok Sokszor alkalmaznunk kell az L visszafelé eltolás operátort, amit a következőképp definiálunk: Ly t = y t 1, ismételt alkalmazás esetén: L m y t = y t m. Az inverz műveletet az F = L 1 előre tolás operátorral végezhetjük el, melyet a következőképpen definiálunk: F y t = y t+1, ismételt alkalmazás esetén: F m y t = y t+m. 1

Fejezet 1 1.3. Lineáris szűrő modell Az alkalmazott sztochasztikus modellek tipikusan azon a feltevésen alapulnak, hogy a megfigyelt idősorok, amelyekben az egymást követő értékek összefüggőek, előállíthatóak olyan a t véletlen zaj sorozatokból, amelyeknek tagjai függetlenek és azonos eloszlás szerintiek. A zaj értékekről a függetlenségen és az azonos eloszlásúságon kívül általában azt is feltesszük, hogy normális eloszlásúak, várható értékük 0 és varianciájuk egy σ 2 a konstans. Az ilyen..., a t 1, a t, a t 1... véletlen változók sorozatát fehérzaj folyamatnak nevezzük. A megfigyelt folyamtokról pedig azt tételezzük fel, hogy azok a megfelelő a t fehérzaj folyamatból egy megfelelő, úgynevezett lineáris szűrő által keletkeznek. E szűrők szerint a folyamat t időpontbeli y t értéke egyszerűen egy súlyozott összege az összes nem későbbi a t, a t 1, a t 2,... zajértéknek, egy esetleg nem nulla µ t átlagérték mellett: y t = µ t + a t + ψ 1 a t 1 + ψ 1 a t 2 +... = µ t + ψ(l)a t. Általában µ t egy konstans, lineáris vagy exponenciálisan növő paraméter, amely a folyamat szintjét (vagy másképpen átlagértékét, trendjét) határozza meg, és ψ(z) = 1 + ψ 1 z + ψ 2 z 2 +... a z L mellett a ψ(l) + µ t az a lineáris operátor, amely a t folymatot az y t folyamattá alakítja. A ψ(z) függvényt a szűrő átviteli függvényének nevezzük. A súlyok által alkotott ψ 1, ψ 2,... sorozat - alkalmilag - lehet véges vagy végtelen. Ha a sorozat véges vagy pedig végtelen, és a következőképpen abszolút összegezhető: ψ j <, j=0 akkor azt mondjuk, hogy a szűrő stabil és az y t folyamat stacionárius. Egyébként y t nemstacionárius. A µ t -nek ebből a szempontból nincs konkrét jelentése, mindössze a folyamat szintjének referencia pontját határozza meg. 1.4. Autoregresszív modellek A sztochasztikus modellek közül a gyakorlatban előforduló idősorok reprezentációjában nagyon fontosak az úgynevezett autoregresszív modellek. Ezeknél a folyamat jelenbeli értékét egy additív zaj mellett, a folyamat korábbi értékeinek véges, lineáris aggregációjaként fejezzük ki. Jelölje a folyamat időben egymástól egyenlő távolságra lévő t, t 1, t 2,... pillanatbeli értékeit rendre y t, y t 1, y t 2,..., a µ t -től való eltérést pedig ỹ t, ỹ t 1, ỹ t 2,.... azaz legyen ỹ t = y t µ t, tetszőleges t időpontban. Ekkor az ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 +... + ϕ p ỹ t p + a t 2

Fejezet 1 modellt p-edrendű autoregresszív (AR) modellnek nevezzük. Az autoregresszív opertátort a ϕ(l) = 1 ϕ 1 L ϕ 2 L 2... ϕ p L p képlettel definiálva a modell a következő alakban is felírható: ϕ(l)ỹ t = a t. A modell tehát p + 2 ismeretlen paramétert tartalmaz: éspedig a µ, ϕ 1,..., ϕ p, σ 2 a-t. E paraméterek egy megfigyelt folyamat esetén általában ismeretlenek. Ezért legtöbbször a rendelkezésre álló adatokból kell megbecsülnünk ezeket. Belátható, hogy az AR modell egy speciális esete a korábban definiált lineáris szűrő modellnek. Tehát az ỹ t AR folyamat tekinthető úgy, mint egy ϕ 1 (z) átviteli függvényű lineáris szűrő modell kimenete, egy megfelelő a t bemeneti folyamat esetén. Fejezzük ki ugyanis ỹ t 1 -et az AR folyamatot megadó képlet segitségével: ỹ t 1 = ϕ 1 ỹ t 2 + ϕ 2 ỹ t 3 +... + ϕ p ỹ t p 1 + a t 1. És hasonlóképpen a ỹ t 2 folyamat értéket, és így tovább. Megfelelő feltételek fennállása esetén az a t értékek egy végtelen, súlyozott sorösszegéhez jutunk, mert a korábbi ỹ t értékek elhanyagolható súllyal szerepelnek. Így látható, hogy a egyenlet ekvivalens a következővel: ahol ϕ(l)ỹ t = a t ỹ t = ψ(l)a t, ψ(z) = ϕ 1 (z), ez azt mutatja, hogy egy véges AR folyamat felírható egy végtelen MA folyamat formájában. Az AR folyamatok lehetnek stacionáriusak és nemstacionáriusak. A stacionaritáshoz szükséges feltételeket a dolgozat következő fejezetében tárgyaljuk. A gyakorlatban az első és a másodrendű autoregresszív folyamatok bírnak a legnagyobb jelentősséggel. Az elsőrendű autoregresszív folyamat általános alakja: ỹ t = ϕ 1 ỹ t 1 + a t. A másodrendű autoregresszív folyamat általános alakja: ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 + a t. 3

Fejezet 1 1.5. Mozgóátlag modellek A sztochasztikus modellek egy másik, szintén nagy jelentősséggel bíró csoportját az úgynevezett mozgóátlag modellek alkotják. E modellek esetén az ỹ t folyamat értékeit végessok, q darab korábbi a t érték függvényeként írjuk fel. Pontosabban, ha a folyamat egy megfelelő a t zaj mellett az: ỹ t = a t ϑ 1 a t 1 ϑ 2 a t 2... ϑ q a t q alakba írható, akkor azt mondjuk, hogy a folyamat q-adrendű mozgóátlag. A mozgóátlag operátort a ϑ(l) = 1 ϑ 1 L ϑ 1 L 2... ϑ q L q képlettel definiálva a modell felírható röviden a következő alakban: ỹ t = ϑ(l)a t. Tehát a mozgóátlag folyamatot tekinthetjük egy lineáris szűrő modell ỹ t kimenetének ϑ(z) átviteli függvénnyel és a t bemeneti folyamattal. A modell (mint látható) q + 2 ismeretlen paramétert tartalmaz: µ, ϑ 1,..., ϑ q, σ 2 a. Ezek általában ismeretlenek, ezért értéküket legtöbbször a megfigyelt adatokból kell megbecsülni. Gyakorlatban, a mozgóátlag folyamatok körében is az első- és másodrendűek bírnak a legnagyobb jelentősséggel. Az elsőrendű mozgóátlag folyamat általános alakja: ỹ t = a t ϑ 1 a t 1 = (1 ϑ 1 L)a t. Mint könnyen belátható, ez a folyamat ha a ϑ 1 < 1, akkor felírható egy végtelen autoregresszív folyamatként a következőképp az általános alakból: (1 ϑ 1 L) 1 ỹ t = a t aminek alapján ỹ t = ϑ 1 ỹ t 1 ϑ 2 1ỹ t 2... + a t. Másodrendű mozgóátlag folyamat általános alakja: ỹ t = a t ϑ 1 a t 1 ϑ 2 a t 2. 4

Fejezet 1 1.6. Összetett autoregresszív-mozgóátlag modellek Az idősor modellek hatékonyságának növeléséhez néha előnyös autoregresszív és mozgóátlag elemeket egyszerre belevenni a modellbe. Így jutunk az úgynevezett összetett autoregresszív és mozgóátlag (továbbiakban: autoregresszív-mozgóátlag vagy ARMA) folyamatokhoz. Az autoregresszív-mozgóátlag folyamatok általános alakja a következő: Ugyanez rövid formában: ỹ t = ϕ 1 ỹ t 1 +... + ϕ p ỹ t p + a t ϑ 1 a t 1... ϑ q a t q. ϕ(l)ỹ t = ϑ(l)a t. Egy ilyen modellnek, mint az látható, p+q+2 paramétere van: µ, ϕ 1,..., ϕ p ; ϑ 1,..., ϑ q, σ 2 a. E paraméterek általában ismeretlenek, és a rendelkezésre álló adatokból kell megbecsülnünk őket. Mivel az autoregresszív-mozgóátlag modell a következő formában is felírható: ỹ t = ϕ 1 (L)ϑ(L)a t = ϑ(l) ϕ(l) a t, ezért az összetett autoregresszív-mozgóátlag folyamatot tekinthetjük úgy mint egy olyan lineáris szűrő modell ỹ t kimenetét az a t bemeneti folyamattal, amelynek átviteli függvénye a ϑ(z) és a ϕ(z) hányadosa. Mivel ỹ t = y t µ t, ahol a µ t a ỹ t stacionaritása mellett az y t folyamat várható értéke, azaz ha µ t = E[y t ] és ha a µ t = µ konstans, akkor az általános ARMA(p, q) folyamat könnyen felírható ekvivalensen az eredeti y t folyamat tagjaival kifejezve: ϕ(l)y t = ϑ 0 + ϑ(l)a t, ahol a modell ϑ 0, konstans tagja a következőképp írható fel: ϑ 0 = (1 ϕ 1 ϕ 2... ϕ p )µ. Az AR, MA és ARMA modellekkel többnyire megfelelően reprezentálhatók olyan valós idősorok, amelyekben a p, q paraméterek nem nagyobbak kettőnél. 5

2. Lineáris stacionárius modellek tulajdonságai Fejezet 2 2.1. Lineáris modellek tulajdonságai Egy általános lineáris sztochasztikus modell alkalmazásakor azt feltételezzük, hogy az idősort véletlen (független, korrelálatlan) zaj lineáris összegzése generálja. Gyakorlati reprezentációkhoz olyan modelleket szeretnénk alkalmazni, amelyek kevés paramétert tartalmaznak. Ez a takarékosság gyakran elérhető alalcsony fokszámú autoregresszív és mozgóátlag komponens figyelembe vételével. Általános lineáris folyamat két ekvivalens formája Az előző részben láthattuk, hogy a sztochasztikus folyamatok reprezentációját tekinthetjük egy lineáris szűrő kimenetének, melynek bemenete a t fehérzaj folyamat. Így a folyamat felírható az ỹ t = a t + ψ 1 a t 1 + ψ 2 a t 2 +... = a t + ψ j a t j (1) formában, ahol ỹ t = y t µ a folyamatnak a saját átlagértékétől (esetleg saját trendjétől) való eltérése. Az (1) szerinti lineáris folyamat modell az ỹ t folyamatot az a t fehérzaj folyamat jelen- és múltbeli értékeinek súlyozott összegeként állítja elő. Az a t fehérzaj folyamatot tekinthetjük úgy, mint egy zajt, ami a megfigyelt folyamatot generálja. Ez egy 0 várható értékű és konstans varianciájú, korrelálatlan véletlen változók sorozata, melyre E[a t ] = 0 és var[a t ] = σ 2 a. Az a t véletlen változók korrelálatlanságából következik, hogy ezek autokovariancia-függvénye γ k = E[a t a t+k ] = σ 2 a, ha k = 0 és γ k = E[a t a t+k ] = 0, ha k 0. Így az a t fehérzaj autokorreláció függvénye felírható a következő, egyszerű formában: és ϱ k = 1, ha k = 0 ϱ k = 0, ha k 0. Ahhoz, hogy az (1) szerinti lineáris ỹ t folyamat egy valódi stacionárius folyamatot reprezentáljon, kell, hogy a ψ j együtthatók négyzetösszege véges legyen: j=0 ψ2 j <. Az (1)-es lineáris folyamat modell - a megfelelő körülmények között - azt is magában foglalja, hogy ỹ t felírható az ỹ t korábbi értékeinek súlyozott összegeként egy hozzáadott a t hibataggal: ỹ t = π 1 ỹ t 1 + π 2 ỹ t 2 +... + a t = π j ỹ t j + a t. (2) 6 j=1 j=1

Fejezet 2 Ezt az alternatív formát tekinthetjük egy olyannak, ahol a y t µ-től való eltérését regresszáljuk a folyamat korábbi értékeinek µ-től való eltéréseire. 2.1.1. Az AR és az MA paraméterek közti kapcsolat A ϕ és ψ súlyok közötti kapcsolat vizsgálatához a korábban definiált L visszaléptetető operátort hasznájuk, mely szerint az Ly t = y t 1, innen L m y t = y t m. Az (1) által definiált lineáris folyamat általában felírható a következő formában: vagy ahol ỹ t = (1 + ψ(z) = 1 + ψ j L j )a t j=1 ỹ t = ψ(l)a t, (3) ψ j z j = j=1 ψ j z j ψ 0 = 1 esetén. Az ỹ t és a t folyamatokat összekapcsoló lineáris szűrő ψ(z) átviteli függvényét tekinthetjük úgy, mint a ψ j súlyok generátorfüggvényét. A (2)-es képletet egyszerűbb alakra hozva a következőket kapjuk: vagy (1 j=0 π j L j )ỹ t = a t j=1 Így megkapjuk a π súlyok generátorfüggvényét: π(l)ỹ t = a t. (4) π(z) = 1 π j z j. Az ỹ t folyamatra alkalmazva előbb a (4) majd a (3) szerinti egyenlőséget, azt kapjuk, hogy: ψ(l)π(l)ỹ t = ψ(l)a t = ỹ t. Tehát ψ(z)π(z) = 1 vagyis j=1 π(z) = ψ 1 (z). Ezt az összefüggést használva a ψ együtthatók ismeretében megkapjuk a π együtthatókat és fordítva. 7

Fejezet 2 2.1.2. Lineáris folyamatok autokovariancia generátorfüggvénye Az adatelemzés és a modellillesztés alapvető eszköze az autokovariancia függvény. Az (1) alakú lineáris folyamat autokovariancia függvénye a következőképp adható meg: γ k = σa 2 ψ j ψ j+k. j=0 Ez alapján k = 0 megválasztással az y t varianciája a következő: γ 0 = σy 2 = σa 2 ψj 2. (5) Mint látható, a stacionaritáshoz szükséges korábbi feltétel, miszerint j=0 ψ2 j <, megegyezik azzal, hogy az y t folyamat varianciája véges legyen. Az autokovarianciák felírásának egy másik módja, ha a kovarianciák γ(z) = γ k z k k= generátorfüggvényéből indulunk ki. Itt a γ 0 variancia a z 0 = 1 együtthatója. Míg a γ k, azaz a k. autokovariancia az z j -nek és az z j -nek az együtthatója. Így j=0 γ(z) = σ 2 aψ(z)ψ(z 1 ). A valóságban azonban gyakran külön kell kezelnünk azokat az eseteket, amikor a γ(z)- ben a z < 1, z = 1, illetve amikor a z > 1, vagyis amikor a z komplex értékei az egységkörön belül, az egységkörön vagy azon kívül esnek. 2.1.3. Lineáris folyamatok stacionaritási és invertálhatósági feltétele Stacionaritási feltétel Az (5) sorozat konvergenciája biztosítja, hogy a folyamatnak létezik véges varianciája. Az autokovarianciáknak és autokorrelációknak teljesíteniük kell bizonyos feltételeket a stacionaritás biztosításához. Egy (1)-es alakban felírt lineáris folyamat esetében ezek a feltételek biztosítottak a következő egyszerű feltétel által: j=0 ψ j <. Ez ekvivalens azzal, hogy ψ(z)-nek, vagyis a ψ súlyok generátorfüggvényének, konvergensnek kell lennie z 1 esetén, vagyis az egységkörön és azon belül. Invertálhatósági feltétel Most olyan korlátozást adunk a π súlyokra, amely biztosítja azt a tulajdonságot, amit invertálhatóságnak nevezünk. (Az invertálhatóság feltétele független a stacionaritás feltételeitől, és alkalmazható a nemstacionárius modellekre is.) Hogy illusztráljuk a invertálhatóság alapötletét, tekintsük a következő modellt: ỹ t = (1 ϑl)a t. (6) 8

Fejezet 2 Fejezzük ki az a értékeit a ỹ jelenlegi és múltbéli értékeivel. Ekkor a (6)-os képlet alapján a következőt kapjuk: vagyis a t = (1 ϑl) 1 ỹ t = (1 + ϑl + ϑ 2 L 2 +... + ϑ k L k )(1 ϑ k+1 L k+1 ) 1 ỹ t, ỹ t = ϑỹ t 1 ϑ 2 ỹ t 2... ϑ k ỹ t k + a t ϑ k+1 a t k 1. Ha ϑ < 1, és k tart a végtelenbe, a következő végtelen sorhoz jutunk: ỹ t = ϑỹ t 1 ϑ 2 ỹ t 2... ϑ k ỹ t k + a t, tehát kimondhatjuk, hogy a sor invertálható. A (6) szerinti folyamat bármely ϑ érték esetén stacionárius folyamatot definiál. De mint látható, ha ϑ 1, akkor a ỹ t pillanatnyi értéke a k növekedésével növekvő súlyokkal függ a ỹ t 1, ỹ t 2,..., ỹ t k értékektől. Ezt zárja ki a ϑ < 1 feltétel. Ha a folyamat invertálható, akkor a (2) szerint felírt modell π súlyait kapjuk meg, tehát a j = 0, 1,...-ra, π j = ϑ j. Ezek alapján a előbbi feltétel ekvivalens a következővel: vagyis a π(z) = (1 ϑz) 1 = ϑ j z j j=0 j=0 π j < j=0 ϑ j, sorozat konvergens minden z 1 esetén, vagyis az egységkörön és azon belül. Általában a lineáris folyamat akkor invertálható és írható fel π(l)ỹ t = a t alakban, ha a π j súlyoknak létezik abszolút összege, vagyis j=0 π j <, amely egyúttal azt is jelenti, hogy a π(z) sorozat konvergens az egységkörön és azon belül. Összefoglalva: egy (1) szerinti lineáris folyamat stacionárius, ha a j=0 ψ j < és invertálható, ha j=0 π j <, ahol π(z) = ψ 1 (z) = 1 j=1 π jz j. A következőkben megvizsgáljuk az AR, MA és ARMA folyamatok legfontosabb jellemzőit, tekintve varianciájukat, autokorreláció függvényüket valamint, hogy milyen feltételeket kell szabnunk paramétereikre a stacionaritás és invertálhatóság biztosításához. 2.2. Autoregresszív folyamatok 2.2.1. AR folyamatok stacionaritási és invertálhatósági feltételei Egy ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 + + ϕ p ỹ t p + a t 9

vagy másképp (1 ϕ 1 L ϕ 2 L 2 ϕ p L p )ỹ t = a t Fejezet 2 p-edrendű autoregresszív folyamat ϕ 1, ϕ 2,..., ϕ p megválasztható paramétereinek ki kell elégitenie néhány feltételt, hogy a folyamat stacionárius legyen. Ennek szemléltetéshez tekintsük az elsőrendű autoregresszív folyamatot: (1 ϕ 1 L)ỹ t = a t, ami felírható formában. Innen ỹ t = (1 ϕ 1 L) 1 a t = ϕ j 1a t j j=0 ψ(z) = (1 ϕ 1 z) 1 = ϕ j 1z j. j=0 Ahogy azt az előző részben megmutattuk, a stacionariáritáshoz ψ(z)-nek konvergensnek kell lennie z 1 esetén. Tehát egy AR(1) folyamat ϕ 1 paraméterének ki kell elégítenie az ϕ 1 < 1 feltételt a stacionaritás biztosításához. Mivel az 1 ϕ 1 z = 0 egyenlet gyöke z = ϕ 1 1, így ez a feltétel ekvivalens azzal, hogy a 1 ϕ 1 z = 0 egyenlet gyökei az egységkörön kívülre essenek. A ỹ t = ϕ 1 (L)a t alakú általános AR(p) folyamat karakterisztikus polinomja felírható a formában, ahol G 1 1,..., G 1 p parciális törtekre bontva: Ezt felhasználva, az ỹ t folyamat ϕ(z) = (1 G 1 z)(1 G 2 z) (1 G p z) a ϕ(z) = 0 gyökei. Ha a gyökök egyszeresek, akkor ϕ 1 (z) ϕ 1 (z) = p i=1 K i 1 G i z. ỹ t = ϕ 1 (z)a t = p i=1 K i 1 G i z a t alakú. Vagyis az AR(p) folyamatot p db elsőrendű autoregresszív folyamat összegeként állítottuk elő. Ezért, ha ψ(z) = ϕ 1 (z) egy konvergens sorozat z 1 esetén, vagyis ha a ψ j = p i=1 K ig j i súlyoknak létezik abszolút összege, akkor az AR(p) folyamat stacionaritásához az kell, hogy G i < 1 teljesüljön minden i = 1, 2,..., p esetén. Ezzel ekvivalens, hogy a ϕ(z) = 0 gyökeinek kívül kell esnie az egységkörön. A ϕ(z)ψ(z) = 1 egyenlőségből pedig közvetlenül következik, hogy az AR(p) folyamatra a ψ j súlyok kielégítik a ψ j = ϕ 1 ψ j 1 + ϕ 2 ψ j 2 + + ϕ p ψ j p 10

Fejezet 2 egyenletrendszert, ha ψ 0 = 1 és ψ j = 0, minden j < 0 esetén. Ennek alapján a ψ j súlyok könnyen kiszámíthatók rekurzívan a ϕ i, i = 1, 2,... értékekből. Stacionárius AR(p) folyamat esetén a π(z) = ϕ(z) = 1 ϕ 1 z ϕ 2 z 2 + + ϕ p z p sorozat véges, ezért az invertálhatóság biztosításához nem kell további korlátozásokat tennünk a folyamat paramétereire. 2.2.2. Autoregresszív folyamatok autokorreláció függvénye A stacionárius autoregresszív folyamatok autokorreláció függvényének egy fontos rekurzív összefüggésére találunk, ha az ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 + + ϕ p ỹ t p + a t egyenlet mindkét oldalát beszorozzuk ỹ t k -val: ỹ t k ỹ t = ϕ 1 ỹ t k ỹ t 1 + ϕ 2 z t k ỹ t 2 + + ϕ p ỹ t k ỹ t p + ỹ t k a t. Mindkét oldal várható értékét véve, és a folyamat 0 várható értékét figyelembe véve, a következő egyenlethez jutunk: γ k = ϕ 1 γ k 1 + ϕ 2 γ k 2 + + ϕ p γ k p, k > 0. (7) Az E[y t k, a t ] eltűnik, ha k > 0, mivel y t k csak t k időpillanatig foglalja magában az a t k, a t k 1,... zajértékeket, amik korrelálatlanok a t -vel. A (7)-es egyenlet mindkét oldalát leosztva γ 0 = ( γ 0 ) 2 -tel, láthatjuk, hogy az autokorreláció függvény kielégíti a következő egyenletrendszert: ϱ k = ϕ 1 ϱ k 1 + ϕ 2 ϱ k 2 + + ϕ p ϱ k p, k > 0. (8) Ezt átalakítva azt kapjuk, hogy ϕ(l)ϱ k = 0, ahol ϕ(z) = 1 ϕ 1 z ϕ 2 z 2 ϕ p z p, és a ϕ(l) a ϕ(z) értéke az L helyen. Ha p ϕ(z) = (1 G i z), i=1 és a ϕ(z) gyökei: G 1 1, G 1 2,..., G 1 p, melyekre igaz, hogy G i < 1 és különbözőek, akkor a (8)-as egyenlet általános megoldásaként a folyamat autokorrelációira a következő képlet adódik: ϱ k = A 1 G k 1 + A 2 G k 2 + + A p G k p. E felírás alapján látható, hogy az autokorreláció függvény aszimptotikus viselkedése a következő két féle lehet: 11

Fejezet 2-1. ha a G i gyök valós, akkor az autokorreláció-függvény csökkenő exponenciális. - 2. ha a G i, G j gyökök komplex konjugáltak, akkor az autokorreláció függvény csökkenő szinuszhullám. Általában egy stacionárius autoregresszív folyamat autokorreláció függvénye csökkenő exponenciális és csökkenő szinuszfüggvény keverékéből áll. 2.2.3. Autoregresszív paraméterek az autokorreláció függvényében Ha behelyettesítünk k = 1, 2,..., p-t a (8)-as egyenletbe, egy ϱ 1, ϱ 2,..., ϱ p -től függő, lineáris egyenletrendszert kapunk ϕ 1, ϕ 2,..., ϕ p -re: ϱ 1 = ϕ 1 + ϕ 2 ϱ 1 + + ϕ p ϱ p 1 ϱ 2 = ϕ 1 ϱ 1 + ϱ 2 + + ϕ p ϱ p 2. ϱ p = ϕ 1 ϱ p 1 + ϕ 2 ϱ p 2 + + ϕ p, melyet mátrixos formában a következőképp írhatunk fel: Legyen az AR modell együtthatóiból álló p elemű ϕ vektor: ϕ 1 ϕ 2 ϕ =. ϕ p Legyen a folyamat autokorrelációiból álló, szintén p elemű ϱ vektor: ϱ 1 ϱ 2 ϱ =. ϱ p Építsük fel a következő módon a folyamat autokorrelációiból álló p p elemű P mátrixot: 1 ϱ 1 ϱ 2 ϱ p 1 ϱ 1 1 ϱ 2 ϱ p 2 P =.... ϱ p 1 ϱ p 2 ϱ p 3 1 E jelölésekkel a fenti egyenletrendszer: P ϕ = ϱ. 12

Fejezet 2 Ennek ϕ szerinti megoldása: ϕ = P 1 ϱ. 2.2.4. Variancia Ha k = 0, akkor az E[ỹ t k a t ] = E[ỹ t a t ] és ekkor az imént tett feltételek mellett E[ỹ t a t ] = E[a 2 t ] = σ 2 a, mivel ỹ t folyamat felírásának a t az egyetlen olyan tagja, amely korrelál az a t -vel. Így a (7)-esnek megfelelő egyenlet k = 0-ra: γ 0 = ϕ 1 γ 1 + ϕ 2 γ 2 + + ϕ p γ p + σ 2 a. Ezt leosztva γ 0 = σ 2 y-tel és behelyettesítve γ k = γ k, a σ 2 y felírható a következő módon: σ 2 y = σ 2 a 1 ϱ 1 ϕ 1 ϱ 2 ϕ 2 ϱ p ϕ p = σ2 a ϕ(l)ϱ 0. (9) 2.2.5. Elsőrendű autoregresszív (Markov) folyamat Stacionaritási feltétel Az ỹ t = ϕ 1 ỹ t 1 + a t = a t + ϕ 1 a t 1 + ϕ 2 1a t 2 + elsőrendű autoregresszív folyamat ϕ 1 együtthatójának ki kell elégíteni a ϕ 1 < 1 feltételt a folyamat stacionaritásához. Autokorreláció függvény A (8)-as összefüggést használva az elsőrendű autoregresszív folyamat autokorreláció függvénye: ϱ k = ϕ k ϱ k 1, k > 0, felhasználva, hogy ϱ 0 = 1, a megoldása: ϱ k = ϕ k 1. Az autokorreláció függvény pozitív ϕ 1 esetén exponenciálisan tart a 0-hoz, és negatív ϕ 1 esetén oszcillál. Megjegyzés: ϱ 1 = ϕ 1. Variancia A (9)-es képleteket felhasználva a folyamat varianciája: σ 2 y = σ 2 a 1 ϱ 1 ϕ 1 = σ2 a 1 ϕ 2 1. 13

Fejezet 2 2.2.6. Másodrendű autoregresszív folyamat Stacionaritási feltétel A ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 + a t formában felírható, másodrendű autoregresszív folyamat stacionaritásának biztosításához a ϕ(z) = 1 ϕ 1 z ϕ 2 z 2 = 0 karakterisztikus egyenlet gyökeinek az egységkörön kívül kell esnie, ami azt jelenti, hogy a ϕ 1, ϕ 2 paramétereknek a következő háromszög-tartományon belül kell esniük: ϕ 1 + ϕ 2 < 1 ϕ 1 ϕ 2 < 1 ϕ 2 < 1. Autokorreláció függvény A (8)-as képletből kiindulva az autokorreláció függvény kielégíti a ϱ k = ϕ 1 ϱ k 1 + ϕ 2 ϱ k 2, k > 0, másodrendű rekurzív egyenletet ϱ 0 = 1 és ϱ 1 = ϕ 1 /(1 ϕ 2 ) kezdőértékek mellett. Az általános képlet alapján ennek megoldása: ϱ k = A 1 G k 1 + A 2 G k 2, ahol G 1 1 és G 1 2 a karakterisztikus egyenlet gyökei, ha különbözőek: - ha ezek a gyökök valósak, akkor az autokorreláció függvény csökkenő exponenciális függvények lineáris kombinációja. - ha ezek a gyökök komplexek, akkor a folyamat álperiodikus viselkedést mutat, és úgy tekinthetjük, mint egy csillapított szinuszfüggvényt. Yule-Walker egyenletek A Yule-Walker egyenletek a p = 2 speciális esetben a következők: ϱ 1 = ϕ 1 + ϕ 2 ϱ 1 ϱ 2 = ϕ 1 ϱ 1 + ϱ 2, amelyeket megoldva ϕ 1, ϕ 2 -re, a következőket kapjuk: ϕ 1 = ϱ 1(1 ϱ 2 ) 1 ϱ 2 1 14

Fejezet 2 ϕ 2 = ϱ 2 ϱ 2 1. 1 ϱ 2 1 A fenti Yule-Walker egyenletet megoldhatjuk ϱ 1, ϱ 2 -re is: ϱ 1 = ϕ 1 1 ϕ 2 ϱ 2 = ϕ 2 + ϕ2 1. 1 ϕ 2 Ez az eredmény - egyrészt magyarázatot ad a ϱ k meghatározásakor alkalmazott kezdőértékekre, - másrészt pedig együtt használva a stacionaritási feltételekkel megállapíthatjuk, hogy az AR(2) folyamat stacionaritásához a ϱ 1, ϱ 2 értékeinek ki kell elégíteniük a következő feltételeket: ϱ 1 < 1 ϱ 2 < 1 ϱ 2 1 < 1/2(ϱ 2 + 1). Variancia A (9)-es képletből kiindulva a folyamat varianciája: σ 2 y = σa 2 = 1 ϕ 2 σa 2. 1 ϱ 1 ϕ 1 ϱ 2 ϕ 2 1 + ϕ 2 (1 ϕ 2 ) 2 ϕ 2 2.2.7. Parciális autokorreláció függvény Az modellépítés kezdetén nem tudjuk, hogy hányadrendű folyamatot illeszünk a megfigyelt idősorra. Ez a probléma ekvivalens azon szabad változók számának meghatározásával, amelyeket beveszünk a többváltozós regresszióba. Mint láthattuk, az autokorreláció függvénynek végtelensok nem 0 tagja van, de értékeit az első p tag meghatározza. Ezzel szemben a parciális autokorreláció függvénynek csak az első p tagja nem 0. Jelölje ϕ k,j egy k-ad rendű autoregresszív folyamat j. együtthatóját, így ϕ k,k lesz az utolsó együttható. A (8)-as képletből kiindulva láthatjuk, hogy a ϕ k,j kielégíti a következő egyenletrendszert: ϱ j = ϕ k1 ϱ j 1 + + ϕ k(k 1) ϱ j k+1 + ϕ kk ϱ j k, j = 1, 2,..., k, azaz a Yule-Walker egyenleteket, amelyeket mátrixos formában is felírhatunk: 1 ϱ 1 ϱ 2 ϱ k 1 ϕ k1 ϱ 1 ϱ 1 1 ϱ 2 ϱ k 2 ϕ k2 ϱ 2....... ϱ k 1 ϱ k 2 ϱ k 3 1 15. ϕ kk =. ϱ k

Fejezet 2 Ami a korábbi jelölések mellett, feltüntetve azt is, hogy k-adrendű folyamatról van szó: P k ϕ k = ϱ k. E egyenletek megoldását jelentősen egyszerűsíti az, hogy ha a k dimenziós megoldás már ismert, akkor annak alapján a k + 1 dimenziós megoldása közvetlenül meghatározható. Az itt szereplő ϕ kk a folyamat k-adrendű parciális autokorrelációja, ezeket az értékeket k függvényében parciális autokorreláció függvénynek nevezzük. Egy p-edrendű autoregresszív folyamatra, a ϕ kk parciális autokorreláció függvény k p tagja lesz nem nulla, és p < k esetén minden tagja nulla, vagyis a egy p-edrendű autoregresszív folyamat parciális autokorreláció függvénye p-nél nagyobb értékekre 0. A ϕ kk mennyiséget azért nevezzük az y t folyamat k. parciális autokorrelációjának, mert ez egyenlő az egymástól k távolságra levő y t és y t k közötti, y t 1,..., y t k+1 szerinti parciális korrelációval. Vagyis ϕ kk az y t és y t k közötti lineáris kapcsolatot méri a közbülső y t 1, y t 2,..., y t k+1 értékek hatásaival való korrigálás mellett. A k. parciális autokorreláció kiszámítása A legkisebb négyzetes hibák elmélete alapján belátható, hogy a ϕ k1, ϕ k2,..., ϕ kk azon értékei, amelyek a fenti egyenlet megoldásai, ugyanazok mint a regressziós együtthatók az y t folyamat y t 1, y t 2,..., y t k+1 értékein vett lineáris regresszójában. Vagyis ezek a ϕ értékek rendre megfelelnek azoknak a b 1, b 2..., b k együtthatóknak, amelyek minimalizálják az k E[(y t b 0 b i y t i ) 2 ] várható értéket. Az egyszerűség kedvéért tegyük fel, hogy az y t folyamat várható értéke 0. Ekkor az y t -nek az y t 1, y t 2,..., y t k+1 értékeken alapuló legjobb közelítése, a legkisebb négyzetes hiba értelmében: i=1 ŷ t = ϕ k 1,1 y t 1 + ϕ k 1,2 y t 2 + + ϕ k 1,k 1 y t k+1. Hasonlóan az y t k folyamat y t 1, y t 2,..., y t k+1 jövőbeni értékeken alapuló legjobb lineáris közelítése, vagyis regressziója az ŷ t k = ϕ k 1,1 y t k+1 + ϕ k 1,2 y t k+2 + + ϕ k 1,k 1 y t 1. Minthogy a folyamat k. parciális autokorrelációja: ϕ k,k = corr[y t ŷ t, y t k ŷ t k ] = ϕ k,k = cov[y t ŷ t, z t k ŷ t k ] var[y t k ŷ t k ] felhasználva a két előző lineáris regressziót és azt, hogy k 1 σk 1 2 = var[y t ŷ t ] = var[y t k ŷ t k ] = γ 0 (1 ϕ k 1,i ϱ 1 ), i=1, 16

Fejezet 2 a folyamat parciális autokorrelációira a kifejezés adódik. ϕ k,k = ϱ k k 1 i=1 ϕ k 1,iϱ k i 1 k 1 i=1 ϕ k 1,iϱ i 2.3. Mozgóátlag folyamatok 2.3.1. MA folyamatok stacionaritási és invertálhatósági feltételei Mivel a ψ(z) = ϑ(z) = 1 ϑ 1 z ϑ 2 z 2... ϑ q z q sorozat véges, egy MA folyamat stacionaritásának biztosításához nem kell külön feltételeket szabnunk a folyamat paramétereire vonatkozóan. Megmutatjuk, hogy melyek azok a feltételek, amelyeket egy vagy másképpen felírva: ỹ t = a t ϑ 1 a t 1 ϑ q a t q ỹ t = (1 ϑ 1 L ϑ q L q )a t (10) q-edrendű mozgóátlag folyamat ϑ 1, ϑ 2,..., ϑ p paramétereinek ki kell elégítenie ahhoz, hogy az ỹ t folyamat invertálható legyen. Korábban már láthattuk, hogy a ỹ t = (1 ϑ 1 L)a t elsőrendű mozgóátlag folyamat akkor invertálható, ha a ϑ 1 < 1, ugyanis ez a π(z) = (1 ϑ 1 z) 1 = ϑ j 1z j j=0 sorfejtés konvergenvciájának a feltétele. Vagyis ekvivalensen, az 1 ϑ 1 z = 0 egyenlet minden gyökének esetünkben a z = ϑ 1 1 -nek az egységkörön kívül kell elhelyezkednie. A magasabb rendű MA folyamatok invertálhatósági feltételét magkaphatjuk, ha a (10)-es képlet szerint felírt mozgóátlag folyamatot a következő formába írjuk át, feltételezve a ϑ 1 (z) értelmezhetőségét: Legyen a ϑ(z) gyöktényezős felbontása a t = ϑ 1 (L)ỹ t. ϑ(z) = q (1 H i z). i=1 17

Fejezet 2 Ezen felbontás alapján, feltételezve a gyökök egyszeres multiplicitását, a parciális törtekre bontás módszerével: q π(z) = ϑ 1 M i (z) = 1 H i z, ami konvergens, ugyanis a π j = q i=1 M ih j i súlyoknak létezik abszolút összege, ha H i < 1 minden i = 1, 2,..., q esetén. Mivel a H i -k a ϑ(z) = 0 egyenlet gyökei, az iménti megfontolás alapján következik, hogy egy MA(q) folyamat invertálhatóságához az kell, hogy a ϑ(z) = 1 ϑ 1 z ϑ 2 z 2... ϑ q z q = 0 karakterisztikus polinom gyökei az egységkörön kívül helyezkedjenek el. A π(z) sorfejtés együtthatói a ϑ(z)π(z) = 1 összefüggés alapján határozhatóak meg. Ugyanis emiatt a π j súlyoknak ki kell elégíteniük a i=1 π j = ϑ 1 π j 1 + ϑ 2 π j 2 + + ϑ q π j q, j > 0 egyenleteket a π 0 = 1 és π j = 0 j < 0 feltételek mellett. Ebből a pedig a π j, minden j-re rekurzívan kiszámítható az ismert ϑ együtthatók függvényében. 2.3.2. Mozgóátlag folyamatok autokorreláció függvénye A mozgóátlag folyamatok autokorreláció függvényének felírásához induljunk ki az autokovariancia képletéből: γ k = E[(a t ϑ 1 a t 1 ϑ q a t q )(a t k ϑ 1 a t k 1 ϑ q a t k q )]. (11) Ennek alapján a folyamat varianciája: γ 0 = (1 + ϑ 2 1 + ϑ 2 2 + + ϑ 2 q)σ 2 a és az autokovarianciái: { ( ϑk + ϑ γ k = 1 ϑ k+1 + ϑ 2 ϑ k+2 + + ϑ q k ϑ q )σa 2 ha k = 1, 2,..., q 0 ha k > q. Amiből közvetlen adódik a keresett autokorreláció függvény: ϱ k = { ϑk +ϑ 1 ϑ k+1 +ϑ 2 ϑ k+2 + +ϑ q k ϑ q 1+ϑ 2 1 +ϑ2 2 + +ϑ2 q ha 0 ha k > q. k = 1, 2,..., q Láthatjuk, hogy egy MA(q) folyamat autokorreláció függvénye a q. tag felett 0, vagyis egy mozgóátlag folyamat autokorrelációi közül mindig csak végessok, legfeljebb az első q darab nem nulla. A következőkben részletesen megvizsgáljuk a mozgóátlag folyamatok két legfontosabb, az első- és másodrendű esetét. (12) 18

Fejezet 2 2.3.3. Elsőrendű mozgóátlag folyamat Invertálhatóság és stacionaritás Mint láthattuk, az folyamat bármely ϑ 1 esetén stacionárius. ỹ t = a t ϑ 1 a t 1 = (1 ϑ 1 L)a t Ugyanakkor az invertálhatóság általános feltételéből következik, hogy az elsőrendű mozgóátlag folyamat invertálhatóságához a ϑ 1 paraméterének a ϑ 1 < 1 feltételnek kell eleget tennie. Ez nyilván megfelel annak a feltételnek, amit az elsőrendű autoregresszív folyamatokkal kapcsolatban közvetlenül is beláttunk. Autokorreláció függvény A (11) szerinti általános képletet felhasználva a folyamat varianciája: γ 0 = (1 + ϑ 2 1)σ 2 a. A (12) szerinti általános képlet alapján az autokorreláció függvénye: ϱ k = { ϑ1 /(1 + ϑ 2 1) ha k = 1 0 ha k 2. (13) Az utóbbi érdekes következménye, hogy egy MA(1) folyamat ϱ 1 paraméterének eleget kell tennie a ϱ 1 < 1/2 feltételnek. Ugyanis az (13)-as képletet k = 1-re felírva, néhány átalakítás után a következőt kapjuk: ϑ 2 1 + ϑ 1 ϱ 1 + 1 = 0. Ennek a ϑ 1 szerinti gyökei: ( 1 ± 1 4ϱ 2 1)/2ϱ 1. Mivel e gyökök szorzata 1, ha ϑ 1 megoldás, akkor ϑ 1 1 is az, de ha például ϑ 1 kielégíti az invertálhatóság feltéletelét, miszerint ϑ 1 < 1, akkor ϑ 1 1 már nagyobb egynél, amely esetén a folyamatunk nem invertálható. Parciális autokorreláció függvény Az (13) szerinti általános képlet alapján ϱ 1 = ϑ 1 /(1 + ϑ 2 1), ha k = 1 19

Fejezet 2 és a ϱ k = 0 ha a k > 1. Ebből némi algebrai átalakítás után kapjuk, hogy a: ϕ kk = ϑk 1(1 ϑ 2 1) 1 ϑ 2(k+1) 1. Ezért ϕ kk < ϑ k 1 és a parciális autokorreláció függvényt egy csökkenő exponenciális függvény határozza meg. Ha ϱ 1 pozitív, vagyis ha ϑ 1 negatív, akkor a parciális autokorreláció függvény előjele váltakozó, oszcillál. Ha viszont ϱ 1 negatív, tehát ha a ϑ 1 pozitív, akkor a parciális autokorrelációk negatívak. Ahogyan azt már korábban is láthattuk, egy MA(1) folyamatot végtelen AR formába írva, a π j súlyokra igaz, hogy π j = ϑ j 1. Emiatt nem is meglepő, hogy egy MA(1) folyamat ϕ kk parciális autokorreláció-függvénye lényegében utánozza a π j súlyok exponenciálisan csökkenő viselkedését. Összehasonlítva az AR(1) folyamat paramétereire tett feltételekkel, érdekes párhuzamot vehetünk észre. Amíg egy MA(1) folyamat autokorreláció függvénye az első tag után azonosan 0, addig egy AR(1) folyamat autokorreláció függvénye a végtelenbe tarva exponenciálisan csökken. Ehhez hasonlóan, míg egy MA(1) folyamat parciális autokorreláció függvénye a végtelenbe tartva exponenciálisan csökken, addig az AR(1) folyamat parciális autokorreláció függvénye az első tag után azonosan 0. Az effajta kettősség általában is érvényes a magasabbrendű AR és MA folyamatok autokorreláció és parciális autokorreláció függvényeire. 2.3.4. Másodrendű mozgóátlag folyamat Invertálhatósági és stacionaritási feltételek A ỹ t = a t ϑ 1 a t 1 ϑ 2 a t 2 másodrendű mozgóátlag folyamat bármely ϑ 1 és ϑ 2 érték esetén stacionárius, az invertálhatóság biztosításához viszont az 1 ϑ 1 z ϑ 2 z 2 = 0 karakterisztikus polinom gyökeinek az egységkörön kívül kell elhelyezkedniük, vagyis eleget kell tenniük a következő feltételeknek: ϑ 1 + ϑ 2 < 1 ϑ 2 ϑ 1 < 1 ϑ 2 < 1. E feltételek megfelelnek az AR(2) folyamatnál tett stacionaritási feltételeknek. 20

Fejezet 2 Autokorreláció függvény A (11) szerinti általános képletet felhasználva a folyamat varianciája: γ 0 = (1 + ϑ 2 1 + ϑ 2 2)σ 2 a és szintén az általános képletet használva az autokorreláció függvénye: ϱ 1 = ϑ 1(1 ϑ 2 ), k = 1 1 + ϑ 2 1 + ϑ 2 2 ϑ 2 ϱ 2 =, k = 2 1 + ϑ 2 1 + ϑ 2 2 ϱ k = 0, k 3. Tehát az autokorreláció-függvény nulla a 2. tag után! A korábbi képletek alapján észrevehető, hogy egy invertálható MA(2) folyamat első két autokorrelációjának kívül kell esnie a következő görbék által határolt területen: ϱ 1 + ϱ 2 = 0, 5 ϱ 2 ϱ 1 = 0, 5 ϱ 2 1 = 4ϱ 2 (1 2ϱ 2 ). Parciális autokorreláció függvény Egy MA(2) folyamat parciális autokorreláció függvényének viselkedése és annak magyarázata az eddigi esetekhez viszonyítva lényegesen komplikáltabb. Összefoglalóan a következők érvényesek: - Ha az előzőleg felírt karakterisztikus egyenlet gyökei valósak, akkor két exponenciális függvény összege dominálja. - Ha viszont a karakterisztikus egyenleg gyökei komlexek, akkor csökkenő szinuszfüggvény határozza meg az autokorreláció függvényt. Tehát hasonlóan viselkedik mint egy AR(2) folyamat autokorreláció függvénye. 2.4. Dualitás az autoregresszív és mozgóátlag folyamatok között A korábban tárgyalt tulajdonságok, illetve az azok biztosítására vonatkozó feltételek a már említett párhuzamokon kívül további szempontokat vetnek fel az autoregresszív és mozgóátlag folyamatok közötti párhuzamokkal kapcsolatban. A kétféle folyamat közötti dualitásnak 3 következményét mutatjuk be. 21

Fejezet 2 1. Egy p-edrendű stacionárius autoregresszív folyamatban szereplő a t fehérzaj folyamatot felírhatjuk korábbi ỹ t értékek véges, súlyozott összegeként, illetve ỹ t korábbi a t értékek végtelen, súlyozott összegeként. ỹ t = ϕ 1 (L)a t 2. Egy véges MA folyamatnak olyan autokorrelácó függvénye van, amely egy bizonyos pont után azonosan 0. De mivel ekvivalens egy végtelen AR folyamattal, a parciális autokorreláció függvényének végtelen sok nemnulla tagja van. Emiatt a parciális autokorreláció függvényét csökkenő exponenciális és csökkenő szinuszfüggvények dominálják. Megfordítva egy AR folyamatnak olyan parciális autokorreláció függvénye van, amely egy bizonyos pont után konstans 0, de ez az autokorreláció függvény végtelen sok nem nulla, és csillapított exponenciális és csillapított szinuszfüggvények keverékéből áll. 3. Egy p-edrendű autoregresszív folyamat paramétereire ahhoz, hogy invertálható legyen, nem kell megkötéseket tennünk. A stacionaritásához viszont szükséges, hogy a ϕ(z) = 0 gyökei az egységkörön kívül helyezkedjenek el. Hasonlókképpen, egy q-adrendű mozgóátlag folyamat paramétereire nem kell megkötéseket tennünk a stacionaritás biztosítására, viszont az invertálhatósághoz kell, hogy a ϑ(z) = 0 gyökei az egységkörön kívülre essenek. 2.5. Autoregresszív-mozgóátlag folyamatok 2.5.1. Stacionaritási és invertálhatósági feltételek Ahogyan azt már korábban is említettük, ahhoz, hogy a becslésünk pontosabb legyen, szükségünk lehet autoregresszív és mozgóátlag elemek együttes használatára a folyamat modelljének felírásakor. Így egy olyan autoregresszív-mozgóátlág (ARMA) modell keletkezik, amelyet általánosan a következőképp írhatunk fel: ỹ t = ϕ 1 ỹ t 1 + ϕ 2 ỹ t 2 +... + ϕ p ỹ t p + a t ϑ 1 a t 1 ϑ 2 a t 2... ϑ q a t q, ugyanez operátoros alakban: vagy tömörebben: (1 ϕ 1 L ϕ 1 L 2... ϕ p L p )ỹ t = (1 ϑ 1 L ϑ 1 L 2... ϑ q L q )a t, ϕ(l)ỹ t = ϑ(l)a t, ahol ϕ(l) illetve a ϑ(l) rendre p-ed és q-ad fokú ϕ(z) és ϑ(z) karakteriszikus polinomjai a folyamat AR, illetve MA részének. 22

Fejezet 2 Az ARMA(p,q) folyamat kétféleképpen értelmezhető: Egyrészt, mint egy olyan p-ed rendű autoregresszív folyamat, amelynek a e t hibatagja egy q-ad rendű mozgóátlag folyamat. Vagyis úgy, hogy a folyamat a ϕ(l)ỹ t = e t ahol e t = ϑ(l)a t egyenletpár szerinti. Másrészt, mint egy q-ad rendű mozgóátlag folyamatot, b t autoregresszív folyamattal a következőképp: ỹ t = ϑ(l)b t ahol ϕ(l)b t = a t, így ugyanis b t = ϕ 1 (L)a t tehát a ϕ(l)ỹ t = ϕ(l)ϑ(l)b t = ϕ(l)ϑ(l)ϕ 1 (L)a t = ϑ(l)a t, felhasználva, hogy egydimenziós folyamatok esetén a lineáris operátorok felcserélhetőek. Könnyen látható, hogy az ARMA folyamat ϕ(l)ỹ t = ϕ(l)a t definíciós egyenletének jobb oldalán álló mozgóátlag tényezői nem befolyásolják azoknak a feltételeknek a teljesülését, amelyek mellett egy autoregresszív folyamat stacionárius. Ezért nyilvánvaló, hogy egy ARMA folyamat akkor stacionárius, ha a ϕ(z) = 0 karakterisztikus egyenletének gyökei az egységkörön kívül helyezkednek el. Hasonlóképpen, a folyamat invertálhatóságának biztosításhoz a ϑ(z) = 0 karakterisztikus egyenlet gyökeinek kell az egységkörön kívül elhelyezkedniük. A mondott feltételek mellett a stacionárius és invertálható ARMA(p,q) folyamatoknak létezik mind a végtelen mozgóátlag felírása a: ỹ t = ψ(l)a t = ψ j a t j j=0 formában, ahol ψ(z) = ϕ(z) 1 ϑ(z), mind pedig a végtelen autoregresszív felírása a π(l)ỹ t = ỹ t π j ỹ t j = a t formában, ahol π(z) = ϑ(z) 1 ϕ(z), azon feltétellel, hogy ψ j és π j súlyoknak az abszolút összege egyaránt véges. A ψ j súlyokat a ϕ(z)ψ(z) = ϑ(z) egyenlőségből határozhatjuk meg annak alapján, hogy a ψ j súlyok eleget kell hogy tegyenek a j=0 ψ j = ϕ 1 ψ j 1 + ϕ 2 ψ j 2 + + ϕ p ψ j p ϑ j, j > 0 egyenlőségeknek ψ 0 = 1 és ψ j = 0, j < 0 és ϑ j = 0, j > q esetén. 23

Fejezet 2 Hasonlóképpen a π j súlyokat a ϑ(z)π(z) = ϕ(z) egyenlőségből határozzuk meg úgy, hogy a π j súlyok eleget tegyenek a π j = ϑ 1 ψ j 1 + ϑ 2 ψ j 2 + + ϑ q ψ j q ϕ j, j > 0 egyenlőségnek π 0 = 1 és π j = 0, j < 0 és ϕ j = 0, j > q esetén. Ugyanis a bemutatott relációkból valamennyi ψ j és π j súly rekurzívan könnyen kiszámítható a ϕ és ϑ együtthatókkal kifejezve. 2.5.2. Autokorreláció függvény Az összetett folyamat autokorreláció függvényét ugyanazzal az egyszerű módszerrel származtathatjuk, mint amellyel azt korábban az autoregresszív folyamatok esetén tettük. Ha a definíciós egyenletet megszorozzuk ỹ t k -val és a várhatóértékét vesszük, akkor láthatjuk, hogy az autokovariancia-függvény kielégíti a γ k = ϕ 1 γ k 1 + + ϕ p γ k p + γ ya (k) ϑ 1 γ ya (k 1) ϑ q γ ya (k q) egyenletet, ahol γ ya (k) az y és a folyamatok közötti a γ ya (k) = E[ỹ t k a t ] képlettel definiált keresztkovariancia. Mivel ỹ t k csak olyan zaj értékektől függ, amelyek t k idő utániak, a végtelen mozgóátlag folyamat felírásából, miszerint ỹ t k = ψ(l)a t k = ψ j a t k j, az következik, hogy γ ya (k) = j=0 { 0 ha k > 0 ψ k σa 2 ha k 0. A következő tények hasznosak autoregresszív-mozgóátlag sorok fokszámainak meghatározásánál is. Ha q p < 0, akkor az egész ϱ j (j = 0, 1, 2...) autokorreláció függvény egy lecsengő exponenciális és szinuszfüggvény lineáris kombinációjából fog állni, aminek természetét a ϕ(z) karakterisztikus polinom mellett a kezdeti értékek szabják meg. Ha viszont q p 0, akkor q p+1 kezdeti értékünk lesz, ami nem követi ezt az általános mintát. 2.5.3. Variancia A variancia meghatározásához a következő egyenletet vehetjük figyelembe: ha k = 0, akkor γ 0 = ϕ 1 γ k 1 + + ϕ p γ k p σ 2 a(ϑ k ψ 0 + ϑ k+1 ψ 1 + ϑ q ψ q k ) 24

Fejezet 2 a ϑ 0 = 1 feltétel mellett. Ez az egyenlet ugyanis a k = 1, 2,..., p esetekre korábban felírt p darab egyenlet megoldását felhasználva, a kapott γ 1,..., γ p értékek alapján megadja a γ 0 értékét is. 2.5.4. Parciális autokorreláció függvény Az ARMA folyamat felírható a t = ϑ 1 (L)ϕ(L)ỹ t formában, ahol ϑ 1 (L) egy végtelen sorozat L-ben. Emiatt az ARMA folyamatok parciális autokorrelálció függvénye is végtelensok nemnulla tagot tartalmaz. Ugyanakkor előfordulhat, hogy az autokorrelálció függvény egy tiszta mozgóátlag folyamat parciális autokorreláció függvényéhez hasonlóan viselkedik, vagyis a függvény egy lecsengő exponenciális és szinuszfüggvény keveréke, a mozgóátlag folyamat rendjétől és az általa tartalmazott paraméterek értékeitől függően. 2.5.5. Az ARMA(1,1) folyamat Az idősorok modellezésében az ARMA folyamatok közül az elsőrendű autoregresszívelsőrendű mozgóátlag, röviden ARMA(1,1) folyamat bír a legnagyobb gyakorlati jelentősséggel bír. Egy ilyen folyamat a következőképpen írható fel: Ugyanez zártabb formában: ỹ t ϕ 1 ỹ t 1 = a t ϑ 1 a t 1. (1 ϕ 1 L)ỹ t = (1 ϑ 1 L)a t. Stacionaritási és invertálhatósági feltételek Az elsőrendű autoregresszív-elsőrendű mozgóátlag folyamat stacionárius, ha ϕ 1 < 1, és invertálható, ha ϑ 1 < 1. Tehát az elfogadható paraméterpárok egy négyzet területén belül helyezkednek el. Valamint a végtelen MA felírásakor használt ψ j együtthatókra érvényesek a következők: ψ 1 = ϕ 1 ψ 0 ϑ 1 = ϕ 1 ϑ 1 és ψ j = ϕ 1 ψ j 1, ha j > 1. Ezekből az összefüggésekből látható, hogy egy ARMA(1,1) folyamat ψ j súlyai kiszámíthatók a ψ j = (ϕ 1 ϑ 1 )ϕ j 1 1 25

Fejezet 2 képlettel, j 1 esetén. Továbbá a végtelen AR formájú felíráskor használt π j pedig a π j = (ϕ 1 ϑ 1 )ϑ j 1 1 képlettel számíthatók ki, j 1 esetén. súlyok Autokorreláció függvény Az autokorrelációkat általános esetben megadó képletek alapján: ha ψ 1 = ϕ 1 ϑ 1. γ 0 = ϕ 1 + σ 2 a(1 ϑ 1 ψ 1 ) γ 1 = ϕ 1 γ 0 + ϑ 1 σ 2 a γ k = ϕ 1 γ k 1 k 2, Az első két egyenletet γ 0 függvénye: és γ 1 -re megoldva látjuk, hogy a folyamat autokovariancia γ 0 = 1 + ϑ2 1 + 2ϕ 1 ϑ 1 σ 1 ϕ 2 a 2 1 γ 1 = (1 ϕ 1ϑ 1 )(ϕ 1 ϑ 1 ) σ 1 ϕ 2 a 2 1 γ k = ϕ 1 γ k 1 k 2. Az utolsó egyenletből látható, hogy ϱ k = ϕ 1 ϱ k 1, k 2. Ennek alapján pedig a ϱ k explicit is megadható: ϱ k = ϱ 1 ϕ k 1 1, k > 1 esetén. Tehát mint az nyilvánvaló az autokorreláció függvény tényleg exponenciálisan csökken a ϱ 1 kezdeti értéktől, ami viszont egyaránt függ a ϑ 1 és a ϕ 1 értékétől is. Ha ϕ 1 pozitív, akkor az autokorrelációk exponenciális csökkenek. Ha ϕ 1 negatív, akkor az autokorrelációk abszolút értéke csökken, az előjele pedig váltakozik. Sőt észrevehetjük, hogy a ϱ 1 előjele a ϕ 1 ϑ 1 előjelétől függ, és befolyásolja a többi ϱ érték előjelét. Az első két autokorreláció kifejezhető a folyamat ϑ 1 és ϕ 1 paramétereinek segítségével is: ϱ 1 = (1 ϕ 1ϑ 1 )(ϕ 1 ϑ 1 ) 1 + ϑ 2 1 + 2ϕ 1 ϑ 1 ϱ 2 = ϕ 1 ϱ 1. A korább bemutatott stacionaritási és invertálhatósági feltételeket felhasználva megmutatható, hogy ϱ 1 -nek és ϱ 2 -nek a következő tartományon belül kell elhelyezkedniük: ϱ 2 < ϱ 1 ϱ 2 > ϱ 1 (2ϱ 1 + 1), ϱ 1 < 0 ϱ 2 > ϱ 1 (2ϱ 1 1), ϱ 1 > 0. 26

Fejezet 2 Parciális autokorreláció függvény Az ARMA(1,1) folyamat parciális autokorreláció függvényének kezdeti értéke egyetlen tagból, a ϕ 11 = ϱ 1 -ből áll. És a továbbiakban úgy viselkedik, mint egy tisztán MA(1) folyamat parciális autokorreláció függvénye, vagyis egy csökkenő exponenciális majorálja. Ezért, ha ϕ 1 pozitív, akkor a parciális autokorreláció függvény egy egyenletesen csökkenő exponenciális függvényként viselkedik, amelyik ϱ 1 értéktől kezdve csökken, és előjelét a ϕ 1 ϑ 1 előjele határozza meg. Hasonlóképp, ha ϕ 1 negatív, akkor a parciális autokorreláció függvény egy oszcilláló exponenciális függvényt követ, amelyik a ϱ 1 értéktől kezdődően csökken, és az előjelét szintén a ϕ 1 ϑ 1 előjele határozza meg. 27

3. VARMA modell Fejezet 3 3.1. Vektor ARMA folyamatok Tekintsük az y t, k-dimenziós 0 várható értékű VARMA (p,q) folyamat általános alakját: y t = p ϕ i y t i + i=1 q ϑ j a t j, ahol az a t szintén k-dimenziós, időben korrelálatlan sorozat valamely (Ω, A, P ) valószínűségi mezőn. Az y t és a t vektorokat tehát k db egyváltozós idősor alkotja, méghozzá a következők szerint: j=0 y t = [y t,1, y t,2,..., y t,k ] és a t = [a t,1, a t,2,..., a t,k ]. A VARMA folyamat definíciója az egydimenziós esethez hasonlóan működő L visszaléptető operátor segítségével zártabb változatban is felírható a: ϕ(l)y t = ϑ(l)a t formában, ahol a ϕ(z) egy p-ed, és ϑ(z) pedig egy q-ad rendű polinom mátrix a következők szerint: ϕ(z) = I ϕ I (z) és valamint ϑ(z) = I + ϑ I (z) és ϕ I (z) = ϕ 1 z + + ϕ p z p ϑ I (z) = ϑ 1 z + + ϑ q z q. Ezek alapján y t és a t folyamatokra felírhatóak a következő egyenletek: Egyrészt y t = ϕ I (L)y t + a t + ϑ I (L)a t, másrészt a t = y t ϕ I (L)y t ϑ I (L)a t. A továbbiakban feltételezzük, hogy az y t egy stacionárius folyamat, tehát hogy a ϕ(z) gyökei az egységkörön kívül helyezkednek el, vagyis hogy det[ϕ(z)] 0 z 1, valamint feltesszük, hogy az y t invertálható, tehát azt, hogy a ϑ(z) gyökei az egységkörön kívül helyezkednek el, vagyis hogy det[ϕ(z)] 0 z 1. 28

Fejezet 3 Továbbá feltesszük, hogy az a t fehérzaj folyamat 0 várható értékű, és hogy az a t varianciája a t-től, azaz az időtől független állandó: var(a t ) = σ 2 a. A mondott feltételek mellett az y t folyamat felírható végtelen vektor-autoregresszív (továbbiakban: VAR) formában: π(l)y t = a t, ahol a π(z) = ϑ(z) 1 ϕ(z) = I k i=1 π iz i, és szintén felírható végtelen vektor-mozgóátlag (továbbiakban: VMA) formában: y t = ψ(l)a t, ahol a ψ(z) = ϕ(z) 1 ϑ(z) = I k j=1 ψ jz j. A továbbiakban a ϕ(z) mátrixpolinom i. sorának j. oszlopában álló polinomot jelölje ϕ ij (z). 3.2. Polinom mátrixok tulajdonságai A diag operátor egy olyan diagonális mátrixot képez, amelynek minden eleme nulla, kivéve a diagonálisbelieket, amelyek viszont a leképezett mátrix diagonálisbeli elemeivel azonosak. Például ϕ 11 (z) 0 diag[ϕ ii (z)] = diag[ϕ 11 (z),..., ϕ kk (z)] =..... 0 ϕ kk (z) ahol ϕ ii (z) = 1 ϕ ii,1 z ϕ ii,p z p, minden i = 1,..., k-ra egy p-ed rendű polinom. A det() és az adj() operációkkal az argumentumukba kerülő mátrixok determinánsát, illetve adjungáltját jelöljük. Ezeket a műveleteket hasonlóan értelmezzük, mint a valós számokon értelmezett mátrixok esetében. Az így kapott determináns tehát egy polinom, az adjungált pedig egy polinomok fölötti mátrixot eredményez. A polinomok feletti mátrixok, másként értelmezve a mátrix együtthatós polinomok fontos tulajdonsága, hogy a szorzásuk nem kommutatív, és hogy egy polinom mátrixnak lehet az inverze is (véges) polinom mátrix. Szemben a valós együtthatós polinomokkal, amikor a polinom inverze mindig végtelen hatványsor. E tulajdonságok bemutatására három egyszerű példát adunk. Példa 1. A polinom mátrixok szorzása általában nem kommutatív, miként a valós számok feletti márixok szorzása sem kommutatív. Példa erre a 2 2 méretű mátrixok körében a 29