matematikai statisztika 2006. október 24.



Hasonló dokumentumok
Valószín ségelmélet házi feladatok

Valószínűségszámítás

Ferenczi Dóra. Sorbanállási problémák

Tómács Tibor. Matematikai statisztika

MITISZK Miskolc-Térségi Integrált Szakképző Központ

Analízis 1. (BSc) vizsgakérdések Programtervez informatikus szak tanév 2. félév

Analízisfeladat-gyűjtemény IV.

Miskolci Egyetem GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR. Analízis I. példatár. (kidolgozott megoldásokkal) elektronikus feladatgyűjtemény

Bevezetés a valószínűségszámításba és alkalmazásaiba: példákkal, szimulációkkal

Matematikai és matematikai statisztikai alapismeretek

Összefoglaló valószínűségszámításból a Gépészmérnök Msc szak hallgatói számára

Valószínűségszámítás és statisztika. István Fazekas

Dr. Kuczmann Miklós JELEK ÉS RENDSZEREK

Pénzügyi matematika. Medvegyev Péter szeptember 8.

Analízis előadás és gyakorlat vázlat

Kockázati folyamatok. Sz cs Gábor. Szeged, szi félév. Szegedi Tudományegyetem, Bolyai Intézet

MATEMATIKA I. RÉSZLETES ÉRETTSÉGI VIZSGAKÖVETELMÉNY A) KOMPETENCIÁK

Kaotikus vagy csak összetett? Labdák pattogása lépcs n Gruiz Márton, Meszéna Tamás, Tél Tamás. 1. Bevezetés. 2. A modell

Matematika emelt szintû érettségi témakörök Összeállította: Kovácsné Németh Sarolta (gimnáziumi tanár)

Félévi időbeosztás (nagyjából) házi feladat beadási határidőkkel (pontosan) Valószínűségszámítás 2. matematikusoknak és fizikusoknak, 2009 tavasz

Komputer statisztika gyakorlatok

1.4 Hányféleképpen rakhatunk sorba 12 könyvet, ha 3 bizonyos könyvet egymás mellé akarunk rakni és

Bemenet modellezése II.

Általános statisztika II. Kriszt, Éva Varga, Edit Kenyeres, Erika Korpás, Attiláné Csernyák, László

Vektorszámítás Fizika tanárszak I. évfolyam

Feladatok és megoldások a 6. heti eladshoz

TARTALOM. Ismétlő tesztek ÚTMUTATÁSOK ÉS EREDMÉNYEK...255

Matematika Tanszék MOE (PE MIK) MMAM143VB 1 / 34

JANUS PANNONIUS TUDOMÁNYEGYETEM. Schipp Ferenc ANALÍZIS I. Sorozatok és sorok

Bináris keres fák kiegyensúlyozásai. Egyed Boglárka

Matematikai logika 1 A MATEMATIKAI LOGIKA ALAPJAI. Pécsi Tudományegyetem, Bevezetés

Az indukció. Azáltal, hogy ezt az összefüggést felírtuk, ezúttal nem bizonyítottuk, ez csak sejtés!

Feladatok és megoldások a 4. hétre

matematikai statisztika

Tantárgyi útmutató. Gazdasági matematika II.

Lineáris algebra - jegyzet. Kupán Pál

Fejezetek a lineáris algebrából PTE-PMMK, Műszaki Informatika Bsc. Dr. Kersner Róbert

MIKROÖKONÓMIA I. Készítette: K hegyi Gergely és Horn Dániel. Szakmai felel s: K hegyi Gergely június

NUMERIKUS MÓDSZEREK FARAGÓ ISTVÁN HORVÁTH RÓBERT. Ismertető Tartalomjegyzék Pályázati támogatás Gondozó

JANUS PANNONIUS TUDOMÁNYEGYETEM. Schipp Ferenc ANALÍZIS II. ***************

10. Valószínűségszámítás

9. ÉVFOLYAM. Tájékozottság a racionális számkörben. Az azonosságok ismerete és alkalmazásuk. Számok abszolútértéke, normál alakja.

1.1. Gyökök és hatványozás Hatványozás Gyökök Azonosságok Egyenlőtlenségek... 3

86 MAM112M előadásjegyzet, 2008/2009

MATEMATIKA Kiss Árpád Országos Közoktatási Szolgáltató Intézmény Vizsgafejlesztő Központ

Halmazelmélet. 2. fejezet 2-1

MATEMATIKA ÉRETTSÉGI VIZSGA ÁLTALÁNOS KÖVETELMÉNYEI

TMDK-DOLGOZAT. Stacionárius és rádiófrekvenciás elektromágneses terek vizsgálata a momentumok módszerének segítségével

2) = 0 ahol x 1 és x 2 az ax 2 + bx + c = 0 ( a,b, c R és a 0 )

Lineáris Algebra gyakorlatok

Széchenyi István Egyetem, 2005

GAZDASÁGMATEMATIKA KÖZÉPHALADÓ SZINTEN

MATEMATIKA évfolyam

Halmazok. Halmazelméleti lapfogalmak, hatványhalmaz, halmazm veletek, halmazm veletek azonosságai.

2. előadás: További gömbi fogalmak

MATEMATIKA TANTERV Bevezetés Összesen: 432 óra Célok és feladatok

A gyakorlatok HF-inak megoldása Az 1. gyakorlat HF-inak megoldása. 1. Tagadások:

MATEMATIKA JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

Fókuszált fénynyalábok keresztpolarizációs jelenségei

KOVÁCS BÉLA, MATEMATIKA I.

4. sz. Füzet. A hibafa számszerű kiértékelése 2002.

GAZDASÁGMATEMATIKA KÖZÉPHALADÓ SZINTEN

MATEMATIKA JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

MATEMATIKA ÉVFOLYAM

Játékelmélet és pénzügyek

Valószínűségszámítás feladatgyűjtemény

TANTÁRGYI PROGRAM Matematikai alapok II. útmutató

Áttekintés a felhasznált lineáris algebrai ismeretekről.

A kvantummechanika általános formalizmusa

GAZDASÁGI STATISZTIKA

Elektromágneses hullámok - Hullámoptika

Tantárgyi útmutató. 1. A tantárgy helye a szaki hálóban. 2. A tantárgyi program általános célja. Statisztika 1.

ÚTMUTATÓ A MÓDSZERTANI SZIGORLAT LETÉTELÉHEZ

Függvény deriváltja FÜGGVÉNY DERIVÁLTJA - DIFFERENCIÁLHÁNYADOS. lim határértékkel egyenlő, amennyiben az létezik ( lásd Fig. 16).

Nyugat-magyarországi Egyetem Geoinformatikai Kara. Prof. Dr. Závoti József. Matematika III. 6. MA3-6 modul. A statisztika alapfogalmai

Szeminárium-Rekurziók

2. Halmazelmélet (megoldások)

Mikrohullámok vizsgálata. x o

4. előadás. Vektorok

Nevezetes függvények

5.10. Exponenciális egyenletek A logaritmus függvény Logaritmusos egyenletek A szinusz függvény

Sztojka Miroszláv LINEÁRIS ALGEBRA Egyetemi jegyzet Ungvár 2013

FÖLDMÉRÉS ÉS TÉRKÉPEZÉS

VALÓSZÍNŰSÉGSZÁMÍTÁS KÉPLETTÁR

Nemzeti versenyek évfolyam

Statisztikai alapismeretek (folytatás)

1. A skót bakák mellkas körmérete N(88, 10). A skót bakák mekkora hányada fér bele egy 84-es zubbonyba?

Matematika. Specializáció évfolyam

SZILÁRDSÁGTAN A minimum teszt kérdései a gépészmérnöki szak egyetemi ágon tanuló hallgatói részére (2004/2005 tavaszi félév, szigorlat)

Tartalomjegyzék. Typotex Kiadó III. Tartalomjegyzék

Statisztikai módszerek

Tartalom. Descartes-koordináták. Geometriai értelmezés. Pont. Egyenes. Klár Gergely 2010/2011. tavaszi félév

Készítette: Fegyverneki Sándor. Miskolci Egyetem, 2002.

Matematikai statisztikai elemzések 6.

MATEMATIKA 9. osztály Segédanyag 4 óra/hét

Sztochasztikus folyamatok 1. házi feladat

Matematikai programozás gyakorlatok

LÁNG CSABÁNÉ SZÁMELMÉLET. Példák és feladatok. ELTE IK Budapest javított kiadás

HELYI TANTERV MATEMATIKA tanításához Szakközépiskola évfolyam

Determinisztikus folyamatok. Kun Ferenc

Átírás:

Valószínűségszámítás és matematikai statisztika 2006. október 24.

ii

Tartalomjegyzék I. Valószínűségszámítás 1 1. Véletlen jelenségek matematikai modellje 3 1.1. Valószínűségi mező.............................. 3 1.2. Nevezetes véletlen kísérletek......................... 7 1.3. Feladatok................................... 12 2. Feltételes valószínűség, függetlenség 13 2.1. A függetlenség tulajdonságai......................... 14 2.2. A feltételes valószínűség tulajdonságai................... 17 2.3. Bayes döntés................................. 18 2.4. Feladatok................................... 19 3. Valószínűségi változók 21 3.1. Valószínűségi változóval kapcsolatos események.............. 21 3.2. Valószínűségi változók struktúrája...................... 23 3.3. Valószínűségi változók eloszlása....................... 24 3.4. Nevezetes eloszlású valószínűségi változók................. 30 3.5. Feladatok................................... 35 4. Várható érték, szórás 37 4.1. Várható érték................................. 37 4.2. Szórás..................................... 42 4.3. Nevezetes eloszlások várható értéke, szórása................ 43 4.4. Momentumok, kovariancia.......................... 45 4.5. Feladatok................................... 47 5. Nagy számok törvénye 51 5.1. Nevezetes egyenlőtlenségek.......................... 51 5.2. Nagy számok törvényei............................ 53 5.3. Feladatok................................... 54 6. Karakterisztikus függvény 57 6.1. Határeloszlások................................ 61 6.2. Véletlen tagszámú összeg........................... 66 6.3. Feladatok................................... 67 iii

iv TARTALOMJEGYZÉK 7. Vektor valószínűségi változók jellemzői 69 7.1. Jelölések, elnevezések............................. 69 7.1.1. Várható érték, kovariancia mátrix.................. 70 7.1.2. Karakterisztikus függvény...................... 71 7.2. Vektor valószínűségi változó főkomponensei................. 72 7.3. Normális eloszlású vektor valószínűségi változó............... 75 7.4. Feladatok................................... 78 8. Nevezetes eloszlások 81 8.1. χ 2 eloszlás................................... 81 8.2. T és F-eloszlás................................ 86 8.3. Feladatok................................... 88 9. Regresszió analízis 89 9.1. Többváltozós lineáris regresszió....................... 89 9.2. Elméleti regresszió, feltételes várható érték................. 93 9.3. Bayes döntés................................. 103 9.4. Feladatok................................... 105 10.Sztochasztikus folyamatok 107 10.1. Véletlen eseményfolyamat, Poisson folyamat................ 109 10.2. Brown-mozgás, Wiener folyamat....................... 114 10.3. Független és stacionárius növekményű folyamatok............. 118 10.4. Stacionárius folyamatok........................... 122 10.5. Feladatok................................... 130 II. Matematikai statisztika 133 11.A matematikai statisztika alapfogalmai 135 11.1. Statisztikai mező............................... 135 11.2. Statisztikák.................................. 138 11.3. Paraméterek.................................. 140 11.4. Likelihood függvény.............................. 141 11.5. Feladatok................................... 145 12.Paraméterbecslés 147 12.1. Pontbecslés.................................. 147 12.2. Becslések hatékonysága............................ 153 12.2.1. Maximum likelihood becslés..................... 153 12.2.2. Hatékonyabb becslés mint az elégséges statisztika függvénye............................... 154 12.2.3. A hatékonyság információs határa.................. 154 12.3. Intervallum becslések............................. 158 12.4. Feladatok................................... 162

TARTALOMJEGYZÉK v 13.Hipotézis vizsgálat 165 13.1. Alapfogalmak................................. 165 13.2. Valószínűséghányados próba......................... 167 13.2.1. Bartlett próba............................. 168 13.2.2. Valószínűség próbája, (n;c) terv................... 170 13.3. Normális eloszlás paramétereinek próbái.................. 172 13.4. Feladatok................................... 176 14.Lineáris függőségi kapcsolat 177 14.1. Egyenlő mértékű, független megfigyelési hiba................ 177 14.2. Korrelált megfigyelési hibák......................... 184 14.3. Ridge becslés................................. 186 14.4. Nemlineáris regressziós függvények..................... 187 14.5. Feladatok................................... 189 15.Szórásanalízis 191 15.1. Rögzített hatások modellje.......................... 192 15.2. Véletlen hatások modellje.......................... 196 15.3. Feladatok:................................... 197 16.Nem paraméteres próbák 199 16.1. Illeszkedés vizsgálat.............................. 199 16.2. Függetlenség vizsgálat............................ 202 16.3. Homogenitás vizsgálat............................ 204 16.4. Feladatok................................... 207 A. Mérték és integrál 209 A.1. Mérték..................................... 209 A.2. Mérhető függvény............................... 214 A.3. Integrál.................................... 215 B. Táblázatok 219 C. Képletek 229 Kézirat, módosítva: 2006. október 24.

vi TARTALOMJEGYZÉK

I. rész Valószínűségszámítás 1

1. fejezet Véletlen jelenségek matematikai modellje 1.1. Valószínűségi mező Véletlen jelenségek körének meghatározása hasonló nehézségekkel jár, mint más természettudományok esetén a vizsgálatok tárgyának megadása. Azt azonban elfogadhatjuk, és mindennapi szóhasználatunk is ezt jelzi, hogy vannak olyan jelenségek, történések, melyek lejátszódásával kapcsolatos bizonytalanságunkat úgy fejezzük ki, hogy a véletlenül, találomra, stb. kifejezéseket használjuk. Ilyen jelenségek például egy kocka dobása, vagy egy adott helyen és időpontban mérhető időjárási elem (pl. hőmérséklet). Ezen jelenségekről bőséges tapasztalat szerezhető ismételt megfigyelésükkel. Ilyen tapasztalat, hogy szabályos kockát dobva minden eredmény hasonló gyakorisággal következik be, vagy másképp fogalmazva, egyforma esélyű, illetve januárban kevésbé valószínű a 20C feletti hőmérséklet, mint a fagypont alatti, vagy általában a gyakrabban bekövetkező dolgokat, éppen gyakoriságuknak megfelelően, valószínűbbnek mondjuk. Foglaljuk most össze az ilyen, un. véletlen kísérletek közös vonásait: a véletlen kísérletnek jól meghatározható kimenetelei vannak; bizonyos kimenetelek bekövetkezésének eseményéről beszélhetünk; az ilyen események bekövetkezési esélye mennyiségi formában megadható; Célunk olyan modell megfogalmazása, ahol mindezeknek matematikai fogalmakat feleltetünk meg, és matematikai módszerekkel olyan eredményeket nyerhetünk, amelyek segítenek ezen jelenségek megértésében, illetve a tapasztalat által is megerősíthető törvényszerűségeket tudunk bizonyítani. Egy ilyen modell segítségével olyan következtetések is levezethetővé válnak, melyek tapasztalatinkből közvetlenül nem következtethetők ki, lehetővé téve ezzel ilyen eredmények széleskörű alkalmazását. 3

4 1. FEJEZET. VÉLETLEN JELENSÉGEK MATEMATIKAI MODELLJE 1.1. Definíció. Valószínűségi mezőnek nevezzük az (Ω, A, P ) hármast, ahol Ω az elemi események halmaza, eseménytér; A 2 Ω az eseménytér részeinek egy σ-algebrája, az eseményalgebra, azaz teljesülnek: A1 Ω A ; A2 ha A A akkor A = Ω \ A A ; A3 ha A n A n = 1, 2,... akkor n=1 A n A ; P : A R függvény, a valószínűségi mérték, azaz teljesülnek: P1 P (Ω) = 1 ; P2 ha A A akkor P (A) 0 ; P3 ha A n A n = 1, 2,... és A k A l = k l = 1, 2,... akkor ( ) P A n = P (A n ) ; n=1 Tehát a valószínűségi mező egy mértéktér véges mértékkel (lásd A. Függelék). A továbbiakban minden esetben egy ilyen modellt tételezünk fel, és ha külön nem is említjük, fogalmaink egy (Ω, A, P ) valószínűségi mezővel lesznek kapcsolatosak. Az alábbiakban felsorolunk néhány egyszerűen következő tulajdonságot, és itt használatos elnevezést, kifejezést. 1. Az A eseményalgebra elemei az események, Ω A a biztos esemény. 2. Mivel = Ω A, az üres halmazt lehetetlen eseménynek nevezzük. 3. Az eseményalgebra zárt a szokásos müveletekre: ha A, B A akkor A B = A B... A A B = A B A A \ B = A B A 4. A lehetetlen esemény valószínűsége 0, mivel n=1 P ( ) = P (...) = P ( ) + P ( ) + P ( ) +... ami csak úgy teljesülhet, ha P ( ) = 0.

1.1. VALÓSZÍNŰSÉGI MEZŐ 5 5. A valószínűségi mérték végesen additív: ha A, B A és A B = vagyis A és B kizárják egymást, akkor kizáró események egyesítése, és így A B = A B... P (A B) = P (A) + P (B) + 0 + 0 +... = P (A) + P (B). 6. Néhány további számolási szabály : ha A, B A akkor mivel Ω = A A kizáró események úniója, így 1 = P (A) + P (A), tehát P (A) 1 és P (A) = 1 P (A) ; mivel A = (A B) (A \ B) kizáró események úniója, így P (A \ B) = P (A) P (A B) ; ha teljesül még A B, vagyis B bekövetkezése maga után vonja A bekövetkezését, akkor P (A) P (B) és P (A \ B) = P (A) P (B) ; mivel A B = A (B \ A) kizáró események úniója, használva az előző eredményt, kapjuk P (A B) = P (A) + P (B) P (A B) ; az előző eredményből kapjuk a valószínűség un. szubadditív tulajdonságát: P (A B) P (A) + P (B) ami véges vagy megszámlálható únióra is következik. 7. A valószínűségi mérték folytonossága: ha A 1 A 2... A, akkor B 1 = A 1, B 2 = A 2 \ A 1, B 3 = A 3 \ A 2,... páronként kizáró események, és egyesítésük B n = A n, n=1 amiből kapjuk ( ) P A n = P (A 1 ) + (P (A 2 ) P (A 1 )) + (P (A 3 ) P (A 2 )) +... = lim P (A n ). n n=1 n=1 Hasonlóan teljesül A 1 A 2... A esetén ( ) P A n = lim P (A n ). n n=1 Kézirat, módosítva: 2006. október 24.

6 1. FEJEZET. VÉLETLEN JELENSÉGEK MATEMATIKAI MODELLJE A továbbiakban néhány tipikus, véletlen jelenségek modellezésére jól használható példát adunk valószínűségi mezők megadására. 1. Kombinatórikus valószínűségszámítási problémák Véges sok, egyformán valószínű kimenetellel rendelkező véletlen kísérlet modellje. Ω = {ω 1, ω 2,..., ω n } A = 2 Ω P (A) = < A elemeinek száma > < Ω elemeinek száma > A Ω ahol 2 Ω jelölöli Ω összes részeinek halmazát (hatványhalmazát). 2. Diszkrét valószínűségi mező Véges vagy megszámlálhatóan végtelen sok kimenetelű véletlen kísérlet modellje, ahol a kimenetelek valószínűségei egy (p n ) n=1,2,... diszkrét valószínűségeloszlással adottak. Ω = {ω 1, ω 2,..., ω n,...} A = 2 Ω P (A) = ω n A ahol (p n ) n=1,2,... egy diszkrét valószínűségeloszlás, azaz p n p n 0 n = 1, 2,... és 3. Geometriai valószínűségszámítási problémák p n = 1. R n valamely véges, pozitív mértékű részhalmazát kitöltő kimenetelekkel rendelkező véletlen kísérlet modellje, ahol egy résztartomány bekövetkezési valószínűsége arányos annak mértékével. Ω R n A = {Ω B B B n } P (A) = < A mértéke > < Ω mértéke > A A ahol B n jelöli az R n intervallumait tartalmazó legszűkebb σ-algebrát. 4. Folytonos valószínűségi mező A véletlen kísérlet kimenetelei R n (vagy valamely mérhető részének) pontjaival azonosíthatók, és egy x R n pont kis környezetébe esés valószínűsége arányos n

1.2. NEVEZETES VÉLETLEN KÍSÉRLETEK 7 egy valószínűségi sűrűségfüggvény f(x) értékével. Ω = R n A = B n P (A) = f A A ahol az f : R n R egy valószínűségi sűrűségfüggvény, azaz f(x) 0 x R n és f = 1. R n A fenti példákban a 1.1 definíciónak megfelelő hármast adtunk meg, ami a 2. példa kapcsán egyszerűen ellenőrízhető, az 1. példa pedig ennek speciális esete a A p k = 1 n k = 1, 2,... n valószínűségeloszlással. A 4. példa az A. függelék egyik példája mérték megadására, és a 3. példa lényegében az előbbi speciális esete az { 1 ha x Ω f(x) = <Ω mértéke> 0 egyébként valószínűségi sűrűségfüggvény választásával. 1.2. Nevezetes véletlen kísérletek Az alábbiakban felsorolunk néhány nevezetes véletlen jelenséget, megfogalmazzuk a velük kapcsolatos valószínűségi modellt, és megadjuk események valószínűségeit. Ezek a valószínűségi mezők a fenti példák konkrét esetei lesznek, ezért mindíg csak az Ω eseményteret és a megfelelő diszkrét valószínűségeloszlást, illetve valószínűségi sűrűségfüggvényt adjuk meg. (1) Visszatevés nélküli mintavétel Egy N N + elemszámú halmaz elemei között M N számú megjelölt van. Véletlenszerűen kiválasztva n N számút, mennyi annak valószínűsége, hogy k számú megjelölt van a kiválasztottak között, azaz a mintában? Legyen Ω az N elem n-ed osztályú ismétlés nélküli kombinációinak C n N = ( N n) elemszámú halmaza, minden kombináció egyformán valószínű, A k esemény (azon kombinációk halmaza). amikor a kiválasztottak között k-számú megjelölt van, k = 0, 1, 2,... n. Kézirat, módosítva: 2006. október 24.

8 1. FEJEZET. VÉLETLEN JELENSÉGEK MATEMATIKAI MODELLJE Használjuk a továbbiakban az ( ) a = 0 b ha a < b N értelmezést, amivel A k elemszáma ( ) M k tehát ( ) N M, n k ( M ) ( k N M ) n k P (A k ) = ( N k = 0, 1, 2,... n. (1.1) n) Mivel az A k k = 0, 1, 2,... n események páronként kizáróak, és Ω = n k=0 A k, teljesül n P (A k ) = 1 k=0 vagyis (1.1) egy diszkrét valószínűségeloszlás, amit hipergeometriai eloszlásnak nevezünk. (2) Visszatevéses mintavétel Egy N N + elemszámú halmaz elemei között M N számú megjelölt van. Véletlenszerűen kiválasztva n N számút egymás után a kiválasztottak visszatevésével, mennyi annak valószínűsége, hogy k számú megjelölt van a mintában? Legyen Ω az N elem n-ed osztályú ismétléses variációinak V n,i N = N n elemszámú halmaza, minden variáció egyformán valószínű, A k esemény (azon variációk halmaza), amikor a választottak között k-számú megjelölt van, k = 0, 1, 2,... n. Mivel A k elemszáma a p = M N ( ) n M k (N M) n k, k jelölést bevezetve kapjuk: ( ) n P (A k ) = p k (1 p) n k k k = 0, 1, 2,... n. (1.2) Az A k k = 0, 1, 2,... n események most is páronként kizáróak, és Ω = n k=0 A k, tehát n P (A k ) = 1 k=0 vagyis (1.2) egy diszkrét valószínűségeloszlás, amit binomiális eloszlásnak nevezünk.

1.2. NEVEZETES VÉLETLEN KÍSÉRLETEK 9 (3) Bernoulli kísérlet Egy p [0; 1] valószínűségű esemény n-ismételt megfigyelése esetén mennyi annak valószínűsége, hogy a figyelt esemény k-szor következik be? Vegyük észre, hogy a visszatevéses mintavételtben egy p = M valószínűségű eseményt figyelünk meg n-szer, és A k éppen azt jelenti, hogy k-szor következik be a N figyelt esemény, azaz a megjelölt választása. Tehát választhatjuk Ω = {0, 1, 2,..., n} p k = ( n k) pk (1 p) n k k = 0, 1, 2,... n. Ezek a példák a véletlen jelenségekről szerezhető tapasztalatok leggyakoribb forrásait modellezik. Az ismételt megfigyelésből szerezhető tapasztalataink szerint egy esemény bekövetkezéseinek relatív gyakorisága a vélelmezett valószínűség egyfajta közelítése. Ezt igazolni látszik az a könnyen ellenőrízhető körülmény is, hogy a hipergeometriai és binomiális eloszlások legnagyobb valószínűségei az np értékhez legközelebbi egészek egyike lesz. Tehát az np érték mint átlagos illetve legvalószínűbb gyakoriság értelmezhető. Ezzel a fogalommal lehetővé válik olyan jelenségek modellezése, ahol a megfigyelések n száma igen nagy, és a p bekövetkezési valószínűség nagyon kicsi, de az átlagos gyakoriság megadható mint egy 0 < λ mennyiség. Létezik ugyanis a következő határérték és lim n np=λ ( ) n p k (1 p) n k = λk k k! e λ k = 0, 1, 2,... (1.3) k=0 λ k k! e λ = 1, tehát (1.3) egy diszkrét valószínűségeloszlást, az un. Poisson eloszlást határoz meg, amivel megfogalmazhatjuk a következő véletlen kísérletet. (4) Véletlen eseményszám Egy átlagosan λ-szor bekövetkező esemény véletlen számú bekövetkezésének megfigyelése. Legyenek Ω = N p k = λk k! e λ k N. Ha ez utóbbi kísérletet olyan esetben fogalmazzuk meg, amikor egy esemény bekövetkezése egy berendezés meghibásodását jelenti, és λ az időegységre jutó meghibásodások átlagos száma, akkor t-időtartamú meghibásodás mentes működés valószínűsége: p 0 = e λt = t λ e λt dt, Kézirat, módosítva: 2006. október 24.

10 1. FEJEZET. VÉLETLEN JELENSÉGEK MATEMATIKAI MODELLJE ahol f(t) = { λ e λt ha 0 t 0 egyébként egy un. exponenciális valószínűségi sűrűségfüggvény. Megfogalmazhatjuk tehát a következő véletlen kísérletet, melynek modellje egy folytonos valószínűségi mező. (5) Véletlen időtartam Egy átlagosan T = 1 idejű véletlen időtartam megfigyelése esetén, adjuk meg egy λ t-nél hosszabb időtartam bekövetkezésének valószínűségét! Legyenek Ω = R + f(t) = λ e λt t R + A t = [t; + [ a 0 < t-nél hosszabb időtartam megfigyelésének eseménye, akkor P (A t ) = e λt = t λ e λt dt t > 0. (1.4) Vizsgáljuk a következő kísérletet: egy lejtőn az alábbi módon helyezünk el ékeket 2n számú sorban, és egy golyót legurítunk úgy, hogy az minden soron áthaladva, és egy éknél véletlenszerűen irányt változtatva érkezik le a k = n, (n 1),..., 1, 0, 1,..., (n 1), n helyek valamelyikére. 1. sor 2. sor 3. sor..... 2n. sor n 0 n érkezési helyek A k helyre érkezés pontosan akkor következik be, ha a golyó 2n számú ütközésből n k számúszor fog jobbra gurulni, és feltehetjük a jobbra és balra haladás egyforma valószínűségét. Tehát a Bernoulli késérlet szerint a k helyre érkezés valószínűsége: p k = ( ) 2n n k 1 2 2n k = 0, ±1, ±2,..., ±n. Ha a sorok számát növeljük, de egyben a méretek csökkentésével elérjük, hogy a leérkezési helyek egymás közti távolsága csökkenjen, és éppen 1 n legyen, az x = k n rögzített helyre érkezés valószínűségére nyerjük a következő határértéket: lim n pk = 1 e x2 x R. (1.5) π n n x= k

1.2. NEVEZETES VÉLETLEN KÍSÉRLETEK 11 Ezt felhasználva, elég nagy tábla esetén, két x 1 = l 1 n < x 2 = l 2 n hely közé érkezés A [x1 ;x 2 ] eseményének valószínűségére kapjuk: P ( ) l 2 A [x1 ;x 2 ] = p k k=l 1 l 2 k=l 1 1 π e x2 k 1 x2 1 π e x2 dx n x 1 ahol x k = k n k = l 1,, l 2. Tehát egy folytonos valószínűségi modellt kapunk az f(x) = 1 π e x2 x R sűrűségfüggvénnyel. Ennek egyszerű transzformáltjaként kapható f(x) = 1 2π σ e (x m)2 2σ 2 x R (1.6) az un. Gauss, vagy normális valószínűségi sűrűségfüggvény általános alakja, ahol m R és σ > 0. Mindezek alapján megfogalmazhatjuk sok véletlen eltérés összegének, mint pl. egy mérés véletlen eredményének modelljét. (6) Mérési eredmény Sok kicsiny eltérés összegeként nyerhető véletlen érték megfigyelése. Legyenek Ω = R f(x) = 1 2π σ e (x m)2 2σ 2 x R ahol az f normális sűrűségfüggvény alakja miatt, m a hiba mentes, igazi érték, σ > 0 pedig a pontosság egyfajta mértékeként értelmezhető. Egy [x 1 ; x 2 ] intervallumba eső érték megfigyelésének valószínűsége P ([x 1 ; x 2 ]) = (7) Véletlen pont választása x2 e (x m)2 2σ 2 dx. (1.7) 2π σ x 1 1 Egy [a; b] R intervallumban válasszunk találomra egy számot, adjuk meg annak valószínűségét, hogy a pont egy [x; y] [a; b] részintervallumba esik! Legyenek Ω = [a; b] f(x) = 1 b a x [a; b], akkor egy [x 1 ; x 2 ] [a; b] intervallumba eső érték választásának valószínűsége P ([x 1 ; x 2 ]) = x 2 x 1 b a = x2 1 dx. (1.8) x 1 b a Kézirat, módosítva: 2006. október 24.

12 1. FEJEZET. VÉLETLEN JELENSÉGEK MATEMATIKAI MODELLJE 1.3. Feladatok 1. Legyenek A 1, A 2,..., A n páronként diszjukt halmazok, és Ω = n k=1 A k. Adjuk meg az ezeket tartalmazó legszűkebb eseményalgebrát, és az ezen értelmezhető valósznínűségi mértékeket mi határozza meg? 2. Legyenk A 1, A 2,..., A n halmazok, és Ω = n k=1 A k, továbbá teljesüljön A 1 A 2... A n ahol A k vagy az A k halmaz, vagy Āk = Ω \ A k k = 1, 2,... n. Adjuk meg az ezeket tartalmazó legszűkebb eseményalgebrát, és mutassuk meg, hogy pontosan egy olyan valószínűségi mérték adható meg ezen, hogy teljesüljenek P (A k ) = p k [0; 1] k = 1, 2,... n P (A 1 A 2... A n ) = P (A 1 ) P (A 2 )... P (A n ). 3. Adjuk meg a hipergeometriai, binomiális és Poisson eloszlás legnagyobb valószínűségét! 4. Igazoljuk az (1.5) határértéket az n! = α n 2πn n n e n ahol lim α n = 1 n Stirling formula segítségével! 5. Vizsgáljuk az (1.6) függvény menetét, és mutassuk meg, hogy valószínűségi sűrűségfüggvény! 6. Számítsuk ki a LOTTO jéték kapcsán a különböző nyerő osztályok valószínűségeit! 7. Egy jegypénztárban 500Ft-ért lehet egy jegyet vásárolni. Ha 100 sorbanálló mindegyike egy jegyet vásárol, és negyvenen ezressel, hatvanan pedig ötszázassal akarnak fizetni, mennyi annak valószínűsége, hogy a nyitáskor üres pénztár ellenére nem lesz fennakadás? 8. Mi valószínűbb: (a) egy kockával 4 dobásból legalább egyszer hatost dobni? (b) két kockával 24 dobásból legalább egyszer dupla hatost dobni? 9. n 1 számú 1-est és n 2 számú 0-át véletlenszerűen elrendezve, adjunk rekurzív formulát annak valószínűségére, hogy a véletlen sorrendben az egyeseket összesen k = 0, 1,..., n 1 n 2 számú nulla előzi meg! 10. Egy síklapon egymástól d távolságra párhuzamos vonalak vannak, és egy l < d hosszúságú tűt ejtünk találomra a síkra. Mennyi annak valószínűsége, hogy valamelyik vonalat metszi a tű? 11. Egy r sugarú körben találomra választott húr milyen valószínűséggel lesz r-nél rövidebb?

2. fejezet Feltételes valószínűség, függetlenség Véletlen jelenségek kapcsán megfogalmazott valamely esemény bekövetkezése esetén, más események bekövetkezésének esélyét sok esetben újra értékeljük, és kevésbé vagy még inkább valószínűnek véljük mint korábban. Mindezt annak megfelelően tesszük, hogy a vizsgált eseményt alkotó kimenetelek milyen mértékben töltik ki a bekövetkezett eseményt. 2.1. Definíció. Legyenek A, B A események, és P (B) > 0. Az A esemény B-re vonatkozó feltételes valószínűségének nevezzük: P (A B) = P (A B) P (B) Az így definiált feltételes valószínűséget az A esemény (feltétel nélküli, abszulut, teljes) valószínűségével összehasonlítva, mondhatjuk: P (A B) > P (A) B bekövetkezése esetén az A esemény bekövetkezése valószínűbb. P (A B) < P (A) B bekövetkezése esetén az A esemény bekövetkezése kevésbé valószínű. P (A B) = P (A) B bekövetkezése nem befolyásolja az A esemény bekövetkezési esélyét, és ilyenkor ha még P (A) > 0 is teljesül, kapjuk P (B A) = P (B) és P (A B) = P (A) P (B). Tehát ez utóbbi esetben A bekövetkezése sem befolyásolja a B esemény bekövetkezési esélyét, ami a következő fogalom definíciójához vezet. 2.2. Definíció. i) Az A, B A eseményeket függetleneknek nevezzük, ha teljesül P (A B) = P (A) P (B). 13

14 2. FEJEZET. FELTÉTELES VALÓSZÍNŰSÉG, FÜGGETLENSÉG ii) Az A 1, A 2,... A eseményhalmazokat, vagy másképpen eseményrendszereket páronként függetleneknek nevezzük, ha A A k és B A l függetlenek k l = 1, 2,.... iii) Az A 1, A 2,... A eseményrendszereket teljesen függetleneknek nevezzük, ha A ki A ki {k 1, k 2,..., k n } N + n N + esetén teljesül P (A k1 A k2... A kn ) = P (A k1 ) P (A k2 )... P (A kn ). A függetlenség fogalma tehát a feltételes valószínűség értelmezésének egyszerű következménye. Ha az eseményrendszerek egyetlen eseményből állnak, az eseményeket mondjuk páronként illetve teljesen függetleneknek. 2.1. A függetlenség tulajdonságai A 2.2 definícióból következik néhány egyszerű állítás, megjegyzés: 1. Ha eseményrendszerek teljesen függetlenek, akkor páronként is függetlenek, és az A k1 A k2... A kn A l1 A l2... A lm események függetlenek, ahol A ki A ki {k 1, k 2,..., k n } N + n N + A li A li {l 1, l 2,..., l m } N + m N + = {k 1, k 2,..., k n } {l 1, l 2,..., l m }. A teljes függetlenség tehát azt jelenti, hogy az egyes eseményrendszerek eseményeinek együttes bekövetkezése független más, ugyancsak véges sok eseményrendszer eseményeinek együttes bekövetkezésétől. Ez nem következik a páronkénti függetlenségből (lásd 1. feladat). A továbbiakban, több esemény, eseményrendszer esetén, a függetlenség mindíg a teljes függetlenséget fogja jelenteni. 2. A lehetetlen illetve biztos esemény minden eseménytől független, mivel A A esetén P (A ) = 0 = P (A) 0, P (A Ω) = P (A) = P (A) 1.

2.1. A FÜGGETLENSÉG TULAJDONSÁGAI 15 3. Ha A és B független események, akkor függetlenek, mert pl. Ā és B, A és B, Ā és B P (Ā B) = P (B \ A) = P (B) P (A) P (B) = P (Ā) P (B). Következmény: Független eseményrendszerek bővíthetők az események komplementereivel, a páronkénti illetve teljes függetlenség megtartásával. 4. Véletlen kísérletek függetlenségét modellezhetjük valószínűségi mezők szorzat mértékterével. Legyen (Ω 1, A 1, P 1 ) és (Ω 2, A 2, P 2 ) két valószínűségi mező, akkor az (Ω, A, P ) szorzat mértéktér (lásd A. Függelék) egy valószínűségi mező, ahol és ebben az Ω = Ω 1 Ω 2 A = σ {A B A A 1, B A 2 } P (A B) = P 1 (A) P 2 (B) A A 1, B A 2, Ã 1 = {A Ω 2 A A 1 } A Ã 2 = {Ω 1 B B A 2 } A eseményrendszerek függetlenek. Hasonlóan kapjuk több véletlen kísérlet teljesen független beágyazását a szorzat modellbe. A függetlenség fogalmával a korábban már említett Bernoulli kísérlet újra megfogalmazható, és újabb nevezetes véletlen kísérleteket vizsgálhatunk. (3) Bernoulli kísérlet Egy p [0; 1] valószínűségű eseményt n-szer megfigyelve, mennyi annak valószínűsége, hogy k-szor következik be? Legyenek a B 1, B 2,..., B n események függetlenek, és P (B i ) = p i = 1, 2,..., n. Jelölje továbbá A k esemény k-számú bekövetkezését a B 1, B 2,..., B n események közül. Akkor A k = ( B 1 B 2... B k B k+1... B n )... olyan ( n k) -tagú diszjunkt únió, melynek minden tagja k-számú B és (n k)-számú B esemény közös része, ezért ( ) n P (A k ) = p k (1 p) n k k = 0, 1, 2,... n. k Kézirat, módosítva: 2006. október 24.

16 2. FEJEZET. FELTÉTELES VALÓSZÍNŰSÉG, FÜGGETLENSÉG (8) Több kimenetelű kísérlet ismételt megfigyelése Egy r kimenetelű kísérletet n-szer megismételve, adjuk meg annak valószínűségét, hogy az egyes kimenetelek k 1, k 2,... k r -szer következnek be, ha az egyes kimenetelek valószínűségei a p 1, p 2,..., p r diszkrét valószínűségeloszlással adottak! Legyenek a teljes eseményrendszerek függetlenek, és Ekkor a vizsgált {B i1, B i2,..., B ir } A i = 1, 2,..., n P (B ij ) = p i i = 1, 2,..., n, j = 1, 2,..., r. A k1,k 2,...,k r = j 1,j 2,...,j n ( n ) B iji esemény egy pontosan n! k 1! k 2!... k r! tagú diszjunkt únió, ahol j 1, j 2,..., j n egy ismétléses permutáció k 1 számú 1-essel, k 2 számú 2-essel,... és k r számú r-essel, így a függetlenséget is használva, kapjuk P (A k1,k 2,...,k r ) = n! k 1! k 2!... k r! pk 1 1 pk 2 2... pkr r (2.1) r ha k j N j = 1, 2,..., n és k j = n. Mivel (2.1) valószínűségeinek összege (a polinomiális tétel szerint is) 1, ezt a valószínűségeloszlást polinomiális eloszlásnak nevezzük. (9) Esemény megfigyelése az első bekövetkezésig Egy p ]0; 1[ valószínűségű eseményt figyelünk meg az első bekövetkezésig, adjuk meg annak valószínűségét, hogy ez a k-adik kisérletben történik meg! Legyenek a B 1, B 2,... események függetlenek, és P (B i ) = p továbbá a vizsgálandó eseményt akkor a függetlenségből kapjuk: i=1 A k = B 1 B 2... B k 1 B k k = 1, 2,... j= i = 1, 2,.... Jelölje P (A k ) = p (1 p) k 1 k = 1, 2,... (2.2) ami az un. diszkrét geometriai eloszlás, ugyanis konvergens geometriai sor összegeként kapjuk p (1 p) k 1 = 1. k=1 Ez egyben azt is jelenti, hogy az A = B 1 B 2... = A 1 A 2... esemény valószínűsége P (A ) = 0.

2.2. A FELTÉTELES VALÓSZÍNŰSÉG TULAJDONSÁGAI 17 2.2. A feltételes valószínűség tulajdonságai Az alábiakban felsoroljuk a feltételes valószínűség néhány egyszerűen ellenőrízhető fontos tulajdonságát, melyek indokolják a fogalom értelmezését, és módszereket adnak bizonyos típusú problémák megoldásához. 1. Ha B, A A függetlenek, és P (B) > 0, akkor P (A B) = P (A), tehát a feltételtől független esemény feltételes valószínűsége változatlan. 2. Legyen P (B) > 0, ha B A A akkor P (A B) = 1, tehát ha B maga után vonja az A eseményt, annak erre vonatkozó valószínűsége 1. Ha pedig A, B A kizáróak, akkor P (A B) = 0. 3. Ha B A egy rögzített esemény, és P (B) > 0, akkor valószínűségi mérték A-n. P ( B) : A R A P (A B) Következmény: A valószínűségggel kapcsolatos számolási szabályokat a feltételes valószínűségre is alkalmazhatjuk, mint pl. P (Ā B) = 1 P (A B) P (A 1 \ A 2 B) = P (A 1 B) P (A 1 A 2 B) P (A 1 A 2 B) = P (A 1 B) + P (A 2 B) P (A 1 A 2 B). 4. Szorzási szabály Legyenek A 1, A 2,..., A n A események olyanok, hogy P (A 1 A 2... A n ) > 0, akkor P (A 1 A 2... A n ) = P (A 1 ) P (A 2 A 1 ) P (A 3 A 1 A 2 )... P (A n A 1 A 2... A n 1 ). 5. Teljes valószínűség tétel Legyenek B 1, B 2,..., B n A, B k B l = ha k l = 1, 2,..., n és n k=1 B k = Ω, vagyis egy un. teljes esményrendszer, továbbá A A, akkor n P (A) = P (A B k ) P (B k ). k=1 Kézirat, módosítva: 2006. október 24.

18 2. FEJEZET. FELTÉTELES VALÓSZÍNŰSÉG, FÜGGETLENSÉG 6. Bayes tétel Legyen B 1, B 2,..., B n A egy teljes eseményrendszer, A A és P (A) > 0, akkor P (B l A) = P (A B l ) P (B l ) n k=1 P (A B k) P (B k ) l = 1, 2,..., n. 2.3. Bayes döntés A feltételes valószínűség segítségével megadhatjuk a következő, un. döntési feladat megoldását. Feladat: Legyenek (A i ) n i=1 és (B j) m j=1 teljes eseményrendszerek, és P (B j) > 0 j = 1, 2,... m. Keressük azt a un. döntés függvényt, mellyel a d : {1, 2,..., m} {1, 2,..., n} H d = m ) (Ād(j) B j j=1 döntési hiba valószínűsége a legkisebb. A döntési hiba valószínűségét átalakítva kapjuk: P (H d ) = 1 m P ( ) m A d(j) B j = 1 P ( ) A d(j) B j P (Bj ). j=1 Ez pedig akkor maximális, ha azt a d döntésfüggvényt választjuk, melyre teljesül P (A d (j) B j ) P (A i B j ) i = 1, 2,..., n j = 1, 2,..., m, amit Bayes döntésnek nevezünk. Természetesen d nem egyértelműen adott, de minden Bayes döntés hibavalószínűsége ugyanaz. Egy másik lehetséges döntésfüggvény az a konstans d max, melyre teljesül amivel a döntés hibája j=1 P (A dmax ) = max {P (A 1 ), P (A 2 ),..., P (A n )} P (H dmax ) = 1 P (A dmax ) P (H d ). Könnyen belátható, hogy a két teljes eseményrendszer függetlensége esetén d = d max. Egy másik szélsőséges eset, amikor minden B j -hez van olyan A i esemény, hogy B j A i, vagyis az Ω eseménytér (B j ) m j=1 feloszása finomabb, mint az (A i ) n i=1 felosztás, másképpen fogalmazva minden B j esemény maga után vonja egy A i esemény bekövetkezését. Ekkor d (j) = i ha B j A i amiből következik, hogy ilyenkorp (H d ) = 0.

2.4. FELADATOK 19 2.4. Feladatok 1. Válasszunk egy origó középpontú r sugarú körben találomra egy pontot, és jelölje A a pont az x tengely fölötti félkörbe esik; B a pont az y tengelytől jobbra eső félkörbe esik; C a pont az első, vagy a harmadik síknegyedbe esik; Mutassuk meg, hogy az A, B és C események páronként függetlenek, de nem teljesen! 2. Mutassuk meg, hogy ha Ω = I 0 J 0 R 2 intervallum, és a geometriai valószínűségszámítás modelljét használjuk, akkor az és eseményrendszerek függetlenek. I x = {I J 0 I I 0 intervallum} J y = {I 0 J J J 0 intervallum} 3. Bizonyítsuk a feltételes valószínűség tulajdonságait! 4. Két céllövő felváltva lő, és az nyer, aki először eltalálja a célt. Ha feltesszük, hogy a cél eltalálásának eseményei az egymást követő lövések során teljesen függetlenek, és az elsőnek lövő esetén 0.6, illetve a másodiknál 0.8 a találati valószínűség, adjuk meg annak valószínűségét, hogy az első, illetve a második lövő nyer! 5. Egy kosárlabda játékos egymás után végez büntető dobásokat. Az elsőt bedobja, a másodikat nem, és minden további dobása akkora valószínűséggel lesz sikeres, mint amennyi a megelőző dobásokban a kosarak relatív gyakorisága. Mennyi annak valószínűsége, hogy 100 dobásból pontosan 50 kosarat fog dobni? 6. Szinbád, a szultánnak tett szolgálataiért, választhat egyet az N számú háremhölgy közül úgy, hogy az egyenként előtte elvonuló hölgyek valamelyikére rámutat. Tegyük fel, hogy a háremhölgyek szépségük szerint egyértelműen sorrendbe állíthatóak, és Szinbád stratégiája a következő: az első n számú hölgy szemrevétele után azt választja, aki szebb minden korábban látottnál. Mennyi annak valószínűsége, hogy Szinbád a legszebb háremhölgyet választja? Hogyan kell az N értékét megválasztani n elég nagy N esetén, hogy ez a valószínűség a legnagyobb legyen? 7. Két város közötti távíró összeköttetés olyan, hogy a leadott távíró jelek közül a pontok 2-e vonallá torzul, a vonalak 1 -a pedig ponttá. A leadott jelek közül a 5 3 pontok és vonalak aránya 5 : 3. Adjunk döntési szabályt a vevő számára, mennyi a hibás dekódolás valószínűsége? Kézirat, módosítva: 2006. október 24.

20 2. FEJEZET. FELTÉTELES VALÓSZÍNŰSÉG, FÜGGETLENSÉG

3. fejezet Valószínűségi változók Egy véletlen kísérlet eredményéhez sok esetben természetes módon tartozik egy vagy több (véletlen) mennyiség. A matematikai modellben ennek megfelelő fogalom a következő. 3.1. Definíció. i) Skalár valószínűségi változónak (röviden v.v.) nevezzük a függvényt, ha x R esetén ξ : Ω R {ξ < x} = {ω Ω ξ(ω) < x} = ξ 1 (], x[) A ; ii) Vektor valószínűségi változónak (röviden v.v.v.) nevezzük a ξ = (ξ 1, ξ 2,..., ξ n ) : Ω R n függvényt, ha a ξ i : Ω R i = 1, 2,..., n komponensek skalár valószínűségi változók. A továbbiakban a skalár ill. vektor jelzőket csak akkor használjuk, ha azt hangsúlyozni kívánjuk, egyébként egyszerűen valószínűségi változóról, röviden (v.)v.v.-ról beszélünk. 3.1. Valószínűségi változóval kapcsolatos események Jelöljön a továbbiakban ξ egy skalár v.v.-t, ekkor a vele kapcsolatos események az alábbiak: 1. A definíció szerint x R esetén {ξ < x} = {ω Ω ξ(ω) < x} = ξ 1 (], x[) A ; 21

22 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK 2. Az eseményalgebra tulajdonságaiból következnek x y R esetén {ξ x} = {ω Ω ξ(ω) x} = ξ 1 ([x, + [) = {ξ < x} A ; {x ξ < y} = {ω Ω x ξ(ω) < y} = ξ 1 ([x, y[) = {ξ < y} \ {ξ < x} A ; { {ξ = x} = {ω Ω ξ(ω) = x} = ξ 1 ({x}) = x ξ < x + 1 } A ; n n=1 {x ξ y} = {ω Ω x ξ(ω) y} = ξ 1 ([x, y]) = = {x ξ < y} {ξ = y} A ;. tehát általában I R intervallum esetén {ξ I} = {ω Ω ξ(ω) I} = ξ 1 (I) A. Hasonlóan ellenőrízhető, hogy egy ξ = (ξ 1, ξ 2,..., ξ n ) : Ω R n v.v.v. esetén például {x 1 ξ 1 < y 1, x 2 ξ 2 < y 2,..., x n ξ n < y n } = vagy általában n {x i ξ i < y i } A i=1 x i y i R i = 1, 2,..., n, {ξ I} = {ω Ω ξ(ω) I} = ξ 1 (I) A I R n intervallum. Mindezekből (lásd : A. függelék) következnek az alábbiak: 3.2. Következmény. i) Egy ξ : Ω R n függvény pontosan akkor (v.)v.v., ha mérhető az intervallumokat tartalmazó legszűkebb B n σ-algebrára, azaz {ξ B} = {ω Ω ξ(ω) B} = ξ 1 (B) A B B n. ii) A ξ = ξ 1 (B n ) = { ξ 1 (B) B B n } A egy eseményalgebra, amit a ξ (v.)v.v.-val kapcsolatos események rendszerének nevezünk. iii) A ξ (v.)v.v. egy P ξ : B n [0; 1] B P (ξ B) valószínűségi mértéket generál, amit ξ eloszlásának nevezünk. Ennek megfelelően, valószínűségi változókat akkor fogunk (páronként, teljesen) függetleneknek nevezni, ha a velük kapcsolatos eseményrendszerek (eseményalgebrák) függetlenek. Ezzel kapcsolatos a következő tétel.

3.2. VALÓSZÍNŰSÉGI VÁLTOZÓK STRUKTÚRÁJA 23 3.3. Tétel. A ξ : Ω R p és η : Ω R q (v.)v.v.-k pontosan akkor függetlenek, ha P ({ξ I} {η J}) = P (ξ I) P (η J) I R p, J R q intervallumok. (3.1) Bizonyítás. Az egyik irány nyilvánvaló, tehát tegyük fel, hogy (3.1) teljesül. Ekkor a B p+q -n (ξ, η)-által generált P (ξ,η) mértékre P (ξ,η) (I J) = P ξ (I) P η (J) I I p, J I q, tehát megegyezik a szorzatmértékkel az I p+q félgyűrűn, de akkor az egyértelmű kiterjesztés miatt P (ξ,η) a szorzatmérték (lásd: A. függelék, A.3. tétel), vagyis P (ξ,η) (A B) = P ({ξ A} {η B}) = P (ξ A) P (η B) A B p, B B q, amit bizonyítani kellett. 3.2. Valószínűségi változók struktúrája Az alábbiakban összefoglaljuk a skalár v.v.-k (mérhető függvények, lásd: A függelék), könnyen ellenőrízhető tulajdonságait. 1. Egy A A esemény indikátora 1 A (ω) = { 1 ha ω A 0 ha ω Ā valószínűségi változó. Speciálisan az 1 Ω 1 iletve 1 0 konstans függvények v.v.-k. 2. A skalár v.v.-k L halmaza vektorháló, azaz ξ L, c R c ξ L ξ, η L ξ + η L max{ξ, η} min{ξ, η} L, amiből következik, hogy egy ξ v.v. pozitív és negatív része, és abszolút értéke is valószínűségi változó. ξ + = max{0, ξ} ξ = min{0, ξ} ξ = ξ + ξ 3. Egy véges értékkészletű ξ : Ω R függvény pontosan akkor v.v., ha és ekkor a {ξ = x} A x im(ξ), ξ = x im(ξ) valószínűségi változót egyszerűnek nevezzük. x 1 {ξ=x} Kézirat, módosítva: 2006. október 24.

24 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK 4. A skalár v.v.-k L halmaza zárt a pontonkénti limeszre, azaz ha ξ n L n = 1, 2,... és lim n ξ n = ξ : Ω R, akkor ξ valószínűségi változó. 5. Ha 0 ξ v.v., akkor megadható egyszerű v.v.-k (ξ n ) n=1 sorozata, hogy A ξn A ξ n = 1, 2,... és monoton nem csökkenő lim ξ n = ξ. (3.2) n 6. Valószínűségi változó mérhető függvénye is valószínűségi változó, tehát ha ξ : Ω R n (v.)v.v. és h : R n R mérhető, akkor h ξ : Ω R valószínűségi változó. Speciálisan, ha h folytonos függvény, akkor h ξ valószínűségi változó. 3.3. Valószínűségi változók eloszlása Egy ξ : Ω R n (v.)v.v. mindíg generál egy (R n, B n, P ξ ) valószínűségi mezőt, ahol a P ξ (B) = P ( ξ 1 (B) ) B B n valószínűségi mértéket (vagy a generált valószínűségi mezőt), amely az egységnyi valószínűséget szétosztja R n mérhető halmazain, a ξ v.v. eloszlásának nevezzük. A ξ-t diszkrét eloszlásúnak nevezzük, ha ez a mérték egy diszkrét valószínűségeloszlással adott, vagyis P ξ (B) = x B P (ξ = x) B B n, ahol a P (ξ = x) x R n valószínűségek közül csak véges, vagy megszámlálhatóan végtelen sok különbözik nullától, és azok összege x R n P (ξ = x) = 1. A ξ-t folytonos eloszlásúnak nevezzük, ha ez a mérték egy valószínűségi sűrűségfüggvénnyel adott, vagyis P ξ (B) = f B B n, ahol f : R n R + 0 valószínűségi sűrűségfüggvény, azaz R n f = 1. B

3.3. VALÓSZÍNŰSÉGI VÁLTOZÓK ELOSZLÁSA 25 Ilyenkor f nulla mértékű halmazon történő megváltoztatása azonos eloszlást eredményez, tehát f megadása nulla mértékű halmaztól eltekintve egyértelmű. Eloszlások e két típusa azonban közel sem meríti ki az összes lehetőséget (lásd pl. a 3. feladatban (ξ 1, η) eloszlása), csupán ezek a legegyszerűbben kezelhetők, és az alkalmazásokban is ilyenek fordulnak elő leggyakrabban. Mint később látni fogjuk, a P ξ mértéket, vagyis ξ eloszlását egyértelműen meghatározza a következő fogalom. 3.4. Definíció. A ξ = (ξ 1, ξ 2,..., ξ n ) : Ω R n (v.)v.v. eloszlásfüggvényének nevezzük az F (x 1, x 2,..., x n ) = P (ξ 1 < x 1, ξ 2 < x 2,..., ξ n < x n ) (x 1, x 2,..., x n ) R n függvényt. A definícióból és a valószínűségi mérték tulajdonságaiból egyszerűen következnek az alábbiak. Az eloszlásfüggvény tulajdonságai: 1. A ξ (v.)v.v. F eloszlásfüggvénye korlátos, im (F ) [0; 1]. 2. Legyen a ξ v.v.v. eloszlásfüggvénye F, akkor rögzített (x 1,..., x k 1, x k+1,..., x n ) R n 1 esetén az F (k) = F (x 1,..., x k 1,, x k+1,..., x n ) : R [0; 1] parciális függvény (a) monoton nem csökkenő, balról mindenütt folytonos; (b) határértéke a végtelenben: és F (k) ( ) = x F (x 1,..., x k 1, x, x k+1,..., x n ) lim F (k)(x) = 0 x F (k) (+ ) = lim F (k)(x) = x + = P ( ) ξ 1 < x 1, ξ 2 < x 2,..., ξ k 1 < x k 1, ξ k+1 < x k+1,... ξ n < x n vagyis F (k) (+ ) a ( ξ 1, ξ 2,..., ξ k 1, ξ k+1,... ξ n ) n 1 dimenziós un. perem eloszlásfüggvénye az (x 1,..., x k 1, x k+1,..., x n ) R n 1 helyen. Speciálisan, ha ξ skalár v.v., F monoton nem csökkenő, balról folytonos, és lim F (x) = 0 x lim F (x) = 1. x + Kézirat, módosítva: 2006. október 24.

26 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK 3. Legyen ξ skalár v.v., akkor a ξ-vel kapcsolatos események valószínűségei x y R esetén: P (ξ < x) = F (x) P (ξ x) = 1 F (x) P (x ξ < y) = F (y) F (x) P (ξ = x) = F (x + 0) F (x) P (x ξ y) = F (y + 0) F (x) P (x < ξ y) = F (y + 0) F (x + 0) P (x < ξ < y) = F (y) F (x + 0) ahol F (x + 0) = lim t x+ F (t), vagy általában jelöljük mindezt az alábbi módon: P (ξ I) = [F ] I I R intervallum. Ha ξ vektor valószínűségi változó, hasonlóan kaphatjuk P (ξ I) = [F ] I I R n intervallum. Megjegyzés: Tehát P ξ értéke az intervallumokon kifejezhető az eloszlásfüggvénnyel, azaz ξ eloszlását meghatározza eloszlásfüggvénye (lásd: A. függelék, A.3. tétel). Ennek következménye az, hogy egy v.v. értékét 0 valószínűségű eseményen tetszőlegesen módosítva (vagy akár meg sem adva), az eloszlásfüggvény változatlan marad. A továbbiakban felsorolunk néhány egyszerűen ellenőrízhető, (feladatokban, alkalmazásokban) gyakran használt következményt. Következmények: 1. Legyen a ξ : Ω R skalár v.v. (a) diszkrét eloszlású, akkor a diszkrét eloszlás valószínűségei és az eloszlásfüggvény P (ξ = x) = F (x + 0) F (x) x R, F (x) = t<x P (ξ = t) x R. Egy I R intervallum esetén P (ξ I) = x I P (ξ = x).

3.3. VALÓSZÍNŰSÉGI VÁLTOZÓK ELOSZLÁSA 27 (b) folytonos eloszlású, akkor valószínűségi sűrűségfüggvénye f(x) = F (x) x R ahol f folytonos, és az eloszlásfüggvény F (x) = x f(t)dt x R. Egy I R intervallum esetén, ha belseje ]a; b[ P (ξ I) = I f(t)dt = [F ] I = F (b) F (a). Mindez ξ : Ω R n v.v.v. esetén az alábbi összefüggéseket jelenti: illetve f(x 1, x 2,..., x n ) = n x1 x2... xn F (x 1, x 2,..., x n ) (x 1, x 2,..., x n ) R n ahol f folytonos, F (x 1, x 2,..., x n ) = x 1 x2... x n f(t 1, t 2,..., t n )dt 1 dt 2... dt n (x 1, x 2,..., x n ) R n, és egy I R n intervallum esetén, P (ξ I) = I f = [F ] I. Megjegyzés. Egy ξ skalár v.v. eloszlásának folytonosága egyszerűen következik, ha teljesül az alábbi két feltétel: F folytonos függvény; F folytonosan differenciálható az ]a n ; b n [ n = 1, 2,..., N nyílt intervallumokon, ahol a 1 =, a 2 = b 1, a 3 = b 2,, a N = b N 1, b N = +. 2. Legyen a (ξ, η) : Ω R p+q v.v.v. (a) diszkrét eloszlású, akkor ξ illetve η diszkrét eloszlásúak, és P (ξ = x) = y P (η = y) = x P (ξ = x, η = y) x R p ; P (ξ = x, η = y) y R q ; Kézirat, módosítva: 2006. október 24.

28 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK (b) folytonos eloszlású f : R p+q R + 0 sűrűségfüggvénnyel, akkor ξ illetve η folytonos eloszlásúak, és sűrűségfüggvényeik f ξ (x) = f(x, y)dy x R p ; R q f η (y) = f(x, y)dx y R q ; R p Megjegyzés: Kaptuk tehát, hogy diszkrét illetve folytonos eloszlású v.v.v. peremeinek eloszlása ugyancsak diszkrét illetve folytonos. A megfordítás az első esetben igaz, hiszen a peremek diszkrét eloszlása miatt az együttes eloszlás már legfeljebb megszámlálhatóan végtelen sok érték-pár felvételéhez összesen 1 valószínűséget rendel. A peremek folytonos eloszlásából azonban nem következik az együttes eloszlás folytonossága (lásd 3. feladat). 3. A (ξ, η) : Ω R p+q v.v.v. ξ : Ω R p és η : Ω R q peremei pontosan akkor függetlenek, ha a megfelelő eloszlásfüggvényekre teljesül F (ξ,η) (x, y) = F ξ (x) F η (y) x R p y R q. Ha (ξ, η) diszkrét eloszlású, ez a feltétel ekvivalens a P (ξ = x, η = y) = P (ξ = x) P (η = y) x R p y R q teljesülésével, és ha (ξ, η) folytonos eloszlású, a feltétel f(x, y) = f ξ (x) f η (y) x R p y R q alakban írható a megfelelő sűrűségfüggvények alkalmas választásával. 4. Valószínűségi változó konstruálása adott eloszlással: (a) Legyen (p n ) n=1,2,... egy diszkrét valószínűségeloszlás, és {x 1, x 2,...} R p, akkor az Ω = R p A = B p P (B) = x n B p n B A valószínűségi mezőn értelmezett ξ = id R p v.v. diszkrét eloszlású, és eloszlása: P (ξ = x) = { pn ha x = x n n = 1, 2,... 0 egyébként.

3.3. VALÓSZÍNŰSÉGI VÁLTOZÓK ELOSZLÁSA 29 (b) Legyen f : R p R egy valószínűségi sűrűségfüggvény, akkor az Ω = R p A = B p P (B) = f B B A valószínűségi mezőn értelmezett ξ = id R p v.v. folytonos eloszlású, és sűrűségfüggvénye: f : R p R. (c) Legyen a ξ : Ω R v.v. F eloszlásfüggvénye folytonos, akkor az η = F (ξ) v.v. eloszlásfüggvénye 0 ha x 0 F η (x) = x ha 0 < x 1. (3.3) 1 ha 1 < x Megjegyzés: Az ilyen eloszlású η v.v.-t (pontosabban megfigyelt értékét) véletlen számnak nevezzük, a megfigyelt értéket szolgáltató kísérlet illetve eljárás pedig az un.véletlen szám generátor. A véletlen szám generátorok nélkülözhetetlenek véletlen jelenségek szimulációjához, segítségükkel kaphatunk kívánt eloszlású véletlen mennyiségeket: i. Ha F folytonos és invertálható eloszlásfüggvény, akkor az η véletlen szám segítségével kaphatunk F eloszlásfüggvényű ξ = F 1 (η) valószínűségi változót. Ez a módszer esetenként időigényes lehet az inverz függvény megadása miatt, ezért ilyenkor hatékonyabb (gyorsabb) eljárásokat használnak (lásd: 10. feladat). ii. Ha p 1, p 2, p 3, egy diszkrét valószínűségeloszlás és {x 1, x 2, x 3, } R, akkor a ξ = x 1 1 {η p1 } + x 2 1 {p1 <η p 1 +p 2 } + x 3 1 {p1 +p 2 <η p 1 +p 2 +p 3 } + v.v. eloszlása P (ξ = x k ) = p k k = 1, 2,. 5. Valószínűségi változó függvényének eloszlása: Legyen ξ : Ω R p v.v.v. (a) diszkrét eloszlású, és h : R p R q, akkor η = h ξ : Ω R q diszkrét eloszlású v.v., és P (η = y) = P (ξ = x) y R q. (3.4) {x R p h(x)=y} Kézirat, módosítva: 2006. október 24.

30 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK (b) folytonos eloszlású f : R p R sűrűségfüggvénnyel, h : R p R p invertálható, és h 1 folytonosan differenciálható függvény, akkor η = h ξ : Ω R p v.v.v. eloszlása folytonos, és sűrűségfüggvénye ( ) f η (y) = det y h 1 (y) f ( h 1 (y) ) y R p. (3.5) Következmény: Ha a (ξ, η) : Ω R valószínűségi változó (a) diszkrét eloszlású, akkor ξ + η eloszlása is diszkrét, és P (ξ + η = x) = z P (ξ = x z, η = z) = z és ha még függetlenek is, akkor P (ξ + η = x) = z P (ξ = x z) P (η = z) = z P (ξ = z, η = x z) x R, P (ξ = z) P (η = x z) x R. (b) folytonos eloszlású f : R 2 R sűrűségfüggvénnyel, akkor ξ + η eloszlása is folytonos, és sűrűségfüggvénye f ξ+η (x) = + és ha még függetlenek is, akkor f ξ+η (x) = + f(x z, z)dz = f ξ (x z) f η (z)dz = + + ahol f ξ és f η a megfelelő peremek sűrűségfüggvényei. f(z, x z)dz x R, f ξ (z) f η (x z)dz x R, 3.4. Nevezetes eloszlású valószínűségi változók A továbbiakban röviden összefoglaljuk a már korábban (azonos sorszámmal) felsorolt, nevezetes véletlen kísérletek kapcsán megfogalmazható valószínűségi változó jellemzőit, és néhány könnyen ellenőrízhető tulajdonságát. Az egyszerűbb jelölés érdekében, diszkrét eloszlások esetén csak a pozitív valószínűségeket soroljuk fel a megfelelő értékekkel, és folytonos eloszlás sűrűségfüggvényét csak ott adjuk meg, ahol pozitív értéket vesz fel. Tehetjük mindezt azért is, mert 0 vallószínűségű eseményen egy v.v. tetszőlegesen megváltoztatható az eloszlás változatlansága mellett. (1) Visszatevés nélküli mintavétel Egy N N + elemszámú halmaz elemei között 0 < M < N számú megjelölt van. Véletlenszerűen kiválasztva n N számút, jelölje ξ a megjelöltek számát a mintában.

3.4. NEVEZETES ELOSZLÁSÚ VALÓSZÍNŰSÉGI VÁLTOZÓK 31 Ekkor ξ diszkrét eloszlású, és (1.1) szerint eloszlása hipergeometrikus : ( M ) ( k N M ) n k P (ξ = k) = ( N k = 0, 1, 2,... n, n) jelölése ξ Hyp(N, M, n). Vezessük be továbbá a következő eseményeket A k a k-adik kiválasztott a megjelöltek közül való k = 1, 2,..., n; akkor ahol P (A k ) = M N = p P (A k A l ) = ξ = 1 A1 + 1 A2 +... + 1 An (3.6) M(M 1) N(N 1) k l = 1, 2,..., n. Tulajdonságok: (a) A legvalószínűbb érték, un. módusz, az a legnagyobb k egész, melyre teljesül (n + 1) M + 1 N + 2 k, és ha itt egyenlőség teljesül, akkor P (ξ = k) = P (ξ = k 1). (b) Ha ξ N Hyp(N, M, n) és p = M állandó, akkor N ( ) n lim P (ξ N N = k) = p k (1 p) n k k = 0, 1, 2,... n. k p= M N (2,3) Visszatevéses mintavétel, Bernoulli kísérlet Egy 0 < p < 1 valószínűségű esemény n-ismételt megfigyelése esetén jelölje a ξ v.v. a bekövetkezések számát. Ekkor ξ diszkrét eloszlású, és (1.2) szerint eloszlása n-edrendű p-paraméterű binomiális eloszlás : ( ) n P (ξ = k) = p k (1 p) n k k = 0, 1, 2,... n, k jelölése ξ Bin(n; p). Vezessük be továbbá a következő (teljesen) független eseményeket A k a k-adik megfigyelésben bekövetkezik a figyelt esemény k = 1, 2,..., n; akkor ahol Tulajdonságok: ξ = 1 A1 + 1 A2 +... + 1 An (3.7) P (A k ) = p k = 1, 2,..., n. Kézirat, módosítva: 2006. október 24.

32 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK (a) Az eloszlás módusza az a legnagyobb k egész, melyre teljesül (n + 1) p k, és ha itt egyenlőség teljesül, akkor P (ξ = k) = P (ξ = k 1). (b) Ha ξ 1 Bin(n 1 ; p) és ξ 2 Bin(n 2 ; p) függetlenek, akkor ξ 1 + ξ 2 Bin(n 1 + n 2 ; p). (c) Ha ξ n Bin(n; p) és np = λ állandó, akkor (4) Véletlen eseményszám lim P (ξ n n = k) = λk k! e λ k = 0, 1, 2,.... np=λ Egy átlagosan 0 < λ-szor bekövetkező esemény bekövetkezéseinek számát jelölje a ξ v.v. Ekkor ξ diszkrét eloszlású, és (1.3) szerint eloszlása λ-paraméterű Poisson eloszlás: jelölése ξ Po(λ). Tulajdonságok: P (ξ = k) = λk k! e λ k N, (a) Az eloszlás módusza az a legnagyobb k egész, melyre λ k, és ha itt egyenlőség teljesül, akkor P (ξ = k) = P (ξ = k 1). (b) Ha ξ 1 Po(λ) és ξ 2 Po(µ) függetlenek, akkor (5) Véletlen időtartam Egy átlagosan T = 1 λ változó. ξ 1 + ξ 2 Po(λ + µ) idejű véletlen időtartam értéke legyen a ξ valószínűségi Ekkor ξ folytonos eloszlású, és (1.4) szerint eloszlása λ-paraméterű exponenciális eloszlás, sűrűségfüggvénye f(t) = λ e λt t > 0, eloszlásfüggvénye jelölése ξ Exp(λ). Tulajdonságok: { F (t) = 0 ha t 0 1 e λt ha 0 < t,

3.4. NEVEZETES ELOSZLÁSÚ VALÓSZÍNŰSÉGI VÁLTOZÓK 33 (a) Az eloszlás un. mediánja, az F (t) = 1 2 egyenlet megoldása T 1 2 = ln(2) λ ami olyan időtartamként értelmezhető, mely alatt, sok ilyen véletlen időtartamnak átlagosan a fele ér véget (felezési idő). (b) Egy folytonos eloszlásfüggvényű ξ : Ω R + 0 v.v. akkor és csak akkor exponenciális eloszlású, ha minden x, y > 0 esetén teljesül: P (ξ > x + y ξ > y) = P (ξ > x). (c) Ha ξ Exp(λ), és c R +, akkor c ξ Exp( λ c ). (6) Mérési eredmény Sok (kis) eltérés összegeként nyerhető véletlen értéket jelölje a ξ valószínűségi változó. Ekkor ξ folytonos eloszlású, és (1.7) szerint eloszlása m R és σ > 0 paraméterű normális (vagy Gauss) eloszlás, sűrűségfüggvénye f(x) = 1 2π σ e (x m)2 2σ 2 x R,, eloszlásfüggvénye jelölése ξ N (m; σ). Tulajdonságok: F (x) = x f(t)dt x R, (a) Ha m = 0 és σ = 1, standard normális eloszlásról beszélünk, aminek sűrűségfüggvénye ϕ(x) = 1 e x2 2 x R, 2π eloszlásfüggvénye pedig Φ(x) = x ϕ(t)dt x R, amit táblázat segítségével használhatunk (lásd: B. függelék). Mivel ϕ páros függvény, teljesül Φ( x) = x ϕ(t)dt = x ϕ(t)dt = 1 Φ(x) x R, ezért a táblázatok általában csak 0 x helyen adják meg a Φ(x) függvényértéket. Ebből következik, hogy a N (0; 1) eloszlás mediánja 0. Kézirat, módosítva: 2006. október 24.

34 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK (b) Ha ξ N (m; σ), és a 0, b R, akkor a ξ + b N (a m + b; a σ), tehát a lineáris transzformáció nem változtat az eloszlás normális voltán. Speciálisan a ξ u.n. standardizáltja ξ m σ N (0; 1). (c) Ha ξ N (m; σ), akkor sürűségfüggvénye f(x) = 1 σ ϕ ( x m σ ) x R, eloszlásfüggvénye mediánja m. ( ) x m F (x) = Φ σ x R, (d) Ha ξ 1 N (m 1 ; σ 1 ) és ξ 2 N (m 2 ; σ 2 ) függetlenek, akkor ( ) ξ 1 + ξ 2 N m 1 + m 2 ; σ 2 1 + σ 2 2 (7) Véletlen pont választása Egy [a; b] R intervallumban válasszunk találomra egy számot, jelölje ezt a ξ valószínűségi változó. Ekkor ξ folytonos eloszlású, és (1.8) szerint az eloszálsú v.v., sűrűségfüggvénye eloszlásfüggvénye jelölése ξ U(a; b). Tulajdonságok: f(x) = 1 b a F (x) = a < x < b, 0 ha x a ha a < x b 1 ha b < x x a b a (a) Az eloszlás mediánja a+b. 2 (b) Ha ξ U(a; b) és 0 α, β R akkor [a; b] intervallumon egyenletes, α ξ + β { U (αa + β; αb + β) ha α > 0 U (αb + β; αa + β) ha α < 0.

3.5. FELADATOK 35 (c) A már említett véletlen számok eloszlása U(0; 1), és ha η U(0; 1) egy ilyen véletlen szám, akkor a + (b a) η U(a; b). (9) Esemény megfigyelése az első bekövetkezésig Egy p ]0; 1[ valószínűségű eseményt figyelünk meg az első bekövetkezésig. Jelölje ξ az ennek a kísérletnek a sorszámát! Ekkor (2.2) szerint P (ξ = k) = p (1 p) k 1 k = 1, 2,... tehát ξ eloszlása a diszkrét geometriai eloszlás, jelölése ξ Geom(p). 3.5. Feladatok 1. Mutassuk meg, hogy egy ξ skalár v.v. eloszlásfüggvénye legfeljebb megszámlálhatóan sok pont kivételével folytonos! 2. Kockát dobunk kétszer, és jelölje ξ az eredmények minimumát, η az eredmények maximumát. Adjuk meg ξ, η és (ξ, η) eloszlását! Függetlenek-e ξ és η? 3. Válasszunk két véletlen pontot a [0; 1] intervallumban, jelölje ezeket ξ 1 és ξ 2. Adjuk meg ξ 1, ξ 2 és (ξ 1, ξ 2 ) eloszlását! Legyen továbbá η = max{ξ 1, ξ 2 }, adjuk meg (ξ 1, η) eloszlását! Függetlenek-e ξ 1 és ξ 2, illetve ξ 1 és η? 4. Egy egységnyi sugarú körben találomra választunk egy pontot. Jelölje a pont polárkoordinátáit (ρ, ϕ), függetlenek-e a ρ és ϕ v.v.-k? 5. Egy dobozban 5 db cédula van, az 1,2,3,4 és 5 számokkal. Találomra kiválsztunk (visszatevés nélkül) hármat, és jelölje a ξ v.v. a három kiválsztott közül a legkisebbet. Adjuk meg ξ eloszlását, számítsuk ki a P (2 ξ 4) valószínűséget! 6. Legyen a ξ v.v. sűrűségfüggvénye f(x) = { c cos(x) ha 0 x π 2 0 egyébként. Adjuk meg ξ eloszlásfüggvényét, és a P (ξ 2 > 1) valószínűséget! 7. Legyenek ξ 1, ξ 2 N (0, 1) független valószínűségi változók, adjuk meg eloszlását!. η 1 = ξ 2 1 és η 2 = ξ 2 1 + ξ2 2 Kézirat, módosítva: 2006. október 24.

36 3. FEJEZET. VALÓSZÍNŰSÉGI VÁLTOZÓK 8. Legyenek ξ, η N (0, 1) független valószínűségi változók, adjuk meg eloszlását! η = ξ η 9. Legyen τ U(0; 1), és λ > 0, adjuk meg 1 ln(τ) eloszlását! λ 10. Legyenek ξ k U(a; b), η k U(c; d) k = 1, 2,... függetlenek, f : [a; b] [c; d] egy valószínűségi sűrűségfüggvény, és a ζ v.v. olyan hogy ζ = ξ n ha f(ξ n ) η n és f(ξ k ) < η k k = 1, 2,..., n 1. Adjuk meg ζ eloszlását! 11. Legyenek a ξ és η független skalár valószínűségi változók, és eloszlásfüggvényeik folytonosak. Mutassuk meg, hogy P (ξ = η) = 0. 12. Ellenőrízzük a nevezetes eloszlások tulajdonságait!

4. fejezet Várható érték, szórás Véletlen mennyiségek megfigyelésével kapcsolatos tapasztalat, hogy a megfigyelt véletlen értékek egy közép-érték körül ingadoznak valamilyen mértékben. A továbbiakban egy ξ skalár v.v.-val kapcsolatban, ennek megfelelő fogalmakat vezetünk be a matematikai modellünkben. 4.1. Várható érték 4.1. Definíció. i) A ξ 0 egyszerű v.v., várható értékének nevezzük az E(ξ) = x R x P (ξ = x) összeget, ahol az összegzés a véges sok pozitív tagra vonatkozik. ii) A ξ 0 v.v. várható értékének nevezzük az E(ξ) = lim n E(ξ n ) véges határértéket, ha (ξ n ) n=1 sorozata, és lim n ξ n = ξ. nemnegatív egyszerű v.v.-k monoton nem csökkenő iii) A ξ skalár v.v. várható értékének nevezzük az E(ξ) = E(ξ + ) E(ξ ) különbséget, ha a ξ + = max{0, ξ} és ξ = max{0, ξ} nemnegatív v.v.-k várható értéke definiált. A várható érték egyértelműen meghatározott, mint a ξ : Ω R függvény P valószínűségi mérték szerinti ξdp Ω 37

38 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS integrálja, ha az véges érték (lásd: A függelék). Tehát, ha a ξ v.v.-nak definiált (létezik) a várható értéke, azt E(ξ) vagy ξ L 1 jelöli a továbbiakban. A várható érték (mint egy véges mérték szerinti integrál), teljesíti az alábbi tulajdonságokat (lásd: A. Függelék). 1. Esemény indikátorának várható értéke: Legyen A A, akkor E(1 A ) = P (A). Speciálisan az 1 Ω 1 illetve 1 0 konstansok várható értéke 2. Nemnegatív tulajdonság: Ha ξ 0 és E(ξ), akkor 3. Homogén és additív tulajdonság: E(1 Ω ) = E(1) = 1 E(1 ) = E(0) = 0. E(ξ) 0 és E(ξ) = 0 P (ξ = 0) = 1. Ha ξ, η v.v.-k várható értéke létezik, és c R, akkor létezik E(c ξ) és E(ξ + η), továbbá E(c ξ) = c E(ξ) E(ξ + η) = E(ξ) + E(η). Következmények: (a) (Monoton) Ha ξ η v.v.-k várható értéke létezik, akkor E(ξ) E(η) és E(ξ) = E(η) P (ξ = η) = 1. (b) (Konvex) Ha h : I R konvex függvény az I R intervallumon, és ξ : Ω I v.v., továbbá létezik az E(h(ξ)), E(ξ) várható érték, akkor h (E(ξ)) E(h(ξ)). (c) A ξ v.v. várható értéke akkor és csak akkor létezik, ha E( ξ ), és ekkor E(ξ) E( ξ ). (d) A ξ v.v. várható értéke akkor és csak akkor létezik, ha η L 1 és ξ η, és ekkor E(ξ) E( ξ ) E(η).

4.1. VÁRHATÓ ÉRTÉK 39 4. Folytonosság: (a) Ha ξ n L 1 n = 1, 2,... v.v.-k monoton nem csökkenő sorozata, ξ = lim n ξ n : Ω R, és (E(ξ n )) n=1 korlátos sorozat, akkor létezik a ξ v.v. várható értéke, és E(ξ) = lim n E(ξ n ). (b) Ha ξ n : Ω R n = 1, 2,... v.v.-k konvergens sorozata, ξ = lim n ξ n : Ω R, és ζ L 1 melyre ξ n ζ és n = 1, 2,..., akkor létezik a ξ v.v. várható értéke, E(ξ) = lim n E(ξ n ). A következő tulajdonságok valószínűségszámítási szempontok miatt lesznek fontosak számunkra, illetve a mértéktér véges (normált) voltából következnek. 5. Konstans várható értéke mindíg létezik, és E(c) = E(c 1 Ω ) = c P (Ω) = c c R. 6. A várható érték a véletlen igadozás centruma: Ha ξ L 1, akkor E (ξ E(ξ)) = E(ξ) E(ξ) = 0. 7. Ha α > 1 esetén ξ α L 1, azaz ξ L α, akkor ξ 1 + ξ α miatt következik ξ L 1. Speciálisan ha ξ L 2 ξ L 1, ahol 8. Ha ξ, η L 2, akkor ξ η L 1 és L 2 = { ξ ξ v.v., és ξ 2 L 1 }. E(ξ η) E(ξ 2 ) E(η 2 ), (4.1) továbbá egyenlőség pontosan akkor teljesül, ha van olyan x R, hogy Bizonyítás. Mivel ξ η 1 2 P (ξ = x η) = 1 vagy P (η = x ξ) = 1. ( ξ 2 + η 2), létezik E(ξ η) és az E [ (ξ x η) 2] = E(η 2 )x 2 2E(ξη)x + E(ξ 2 ) (4.2) Kézirat, módosítva: 2006. október 24.

40 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS várható érték minden x R esetén. Ha E(η 2 ) = 0, akkor P (η = 0) = 1, és így teljesül: 0 = E(ξ η) = E(ξ 2 ) E(η 2 ) = 0 P (η = 0 ξ) = 1. Ha E(η 2 ) > 0, akkor az előbbi (4.2) másodfokú függvény diszkrimimánsára 4E 2 (ξη) 4E(ξ 2 )E(η 2 ) 0, amit bizonyítani kellett, továbbá a diszkrimináns pontosan akkor zérus, ha a (4.2) másodfokú függvény egyetlen zérushelye x = E(ξη), és így E(η 2 ) ( ( P ξ E(ξη) ) 2 E(η 2 ) η = 0) = 1. 9. A várható érték minimum tuljadonsága: Ha ξ L 2 akkor m R esetén E [ (ξ m) 2] E [ (ξ E(ξ)) 2], és = akkor és csak akkor teljesül, ha m = E(ξ). Bizonyítás. Mivel E [ (ξ m) 2] = E [ ((ξ E(ξ)) + (E(ξ) m)) 2] = E [ (ξ E(ξ)) 2] + (E(ξ) m) 2 következik az állítás. A következő tételben a várható érték kiszámítási szabályait foglaljuk össze. 4.2. Tétel (Kiszámítási formulák). i) Legyen ξ : Ω R n v.v.v., h : R n R mérhető függvény, akkor E(h ξ) = hdp ξ, R n és a várható érték pontosan akkor létezik, ha a h függvény integrálja az (R n, B n, P ξ ) mértéktéren létezik és véges. Speciálisan, ha n = 1 és h : R R x x, akkor E(ξ) = + xdp ξ (x).

4.1. VÁRHATÓ ÉRTÉK 41 ii) Ha ξ : Ω R n v.v.v. diszkrét eloszlású, h : R n R mérhető függvény, akkor h ξ várható értéke pontosan akkor létezik, és akkor E(h ξ) = x R n h(x)p (ξ = x), ha ez a sor abszoult konvergens (illetve véges összeg). Speciálisan, ha n = 1 és h : R R x x, akkor E(ξ) = x P (ξ = x), x R feltéve, hogy ez a sor abszolut konvergens. iii) Ha ξ : Ω R n v.v.v. folytonos eloszlású f : R n R + 0 valószínűségi sűrűségfüggvénnyel, h : R n R mérhető függvény, akkor h ξ várható értéke pontosan akkor létezik, és akkor E(h ξ) = h(x 1, x 2,, x n ) f(x 1, x 2,, x n )dx 1 dx 2 dx n R n ha az improprius integrál abszolut konvergens (azaz a megfelelő Lebesgue integrál létezik, és véges). Speciálisan, ha n = 1 és h : R R E(ξ) = x x, akkor + x f(x)dx, feltéve, hogy ez az improprius integrál abszolut konvergens. iv) Ha ξ, η L 1 független v.v.-k, akkor ξ η L 1 és E(ξ η) = E(ξ) E(η). Bizonyítás. Az i) eset az összetett függvény integráljának kiszámítási szabálya a belső (ξ) függvény által generált (P ξ ) mérték szerinti integrállal (lásd A. Függelék). A ii) és iii) ennek speciális esete, figyelembe véve az integrál kiszámítását a megfelelő mértékek szerint. A iv) állításhoz legyen h(x, y) = x y (x, y) R 2, és P (ξ,η) a P ξ és P η mértékek szorzatmértéke. A szorzatmérték szerinti integrálás kiszámítási szabályát (lásd A. Függelék) használva, kapjuk: ( ) E(ξ) E(η) = xdp ξ ydp η = x ydp ξ dp η = R R R R = x ydp (ξ,η) = E(ξ η) R R Kézirat, módosítva: 2006. október 24.

42 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS 4.2. Szórás A várható érték minimum tulajdonsága miatt, a véletlen mennyiségek ingadozási mértékének tekinthetjük a következő fogalmat. 4.3. Definíció. A ξ skalár v.v. szórásának nevezzük a D(ξ) = E [ (ξ E(ξ)) 2] mennyiséget, feltéve a megfelelő várható értékek létezését. A definícióban szereplő várható értékek létezéséhez elég feltenni, hogy ξ L 2, a kijelölt gyökvonás mindíg elvégezhető a várható érték nemnegatív tulajdonsága miatt. A D 2 (ξ) mennyiséget szórásnégyzetnek nevezzük. A szórás tulajdonságai: (feltéve a megfelelő várható értékek létezését) 1. Kiszámítási formula: A várható érték tulajdonságaiból, kapjuk 2. Nemnegatívitás: D 2 (ξ) = E [ ξ 2 2E(ξ) ξ + E 2 (ξ) ] = E(ξ 2 ) E 2 (ξ). A várható érték nemnegatív tulajdonságából 3. Pozitív homogén: D(ξ) 0 és D(ξ) = 0 P (ξ = E(ξ)) = 1. Ha ξ v.v., c R, akkor a definíció alapján D(c ξ) = E [ (c ξ E(c ξ)) 2] = c D(ξ). 4. Független v.v.-k összegének szórása: Ha ξ és η v.v.-k függetlenek, akkor a kiszámítási formulából, felhasználva E(ξη) = E(ξ) E(η), kapjuk D 2 (ξ + η) = E(ξ 2 ) + E(η 2 ) E 2 (ξ) E 2 (η) = D 2 (ξ) + D 2 (η). Következmény: Mivel konstans v.v. független minden v.v.-tól (A b 1Ω = {, Ω}), és szórása nulla, kapjuk D(aξ + b) = a D(ξ) a, b R. Már a várható érték kiszámítási formuláiból láttuk, hogy azt a v.v. eloszlása határozza meg. Ennek megfelelően a szórás is az eloszlással adott, ezért az eloszlás várható értékéről vagy szórásáról beszélhetünk. Ha tehát a ξ és η v.v.-k eloszlásfüggvénye megegyezik (ha pl. P (ξ = η) = 1), akkor várható értékekeik illetve szórásaik egyszerre léteznek, és ekkor E(ξ) = E(η) D(ξ) = D(η).

4.3. NEVEZETES ELOSZLÁSOK VÁRHATÓ ÉRTÉKE, SZÓRÁSA 43 4.3. Nevezetes eloszlások várható értéke, szórása A továbbiakban kiszámítjuk a már felsorolt nevezetes eloszlások várható értékét és szórását, felhasználva a kiszámítási formulákat és tulajdonságokat. (1) Hipergeometrikus eloszlás A ξ Hyp(N, M, n) v.v. eloszlása: P (ξ = k) = ( M ) ( k N M ) n k ( N k = 0, 1, 2,... n. n) Használjuk a (3.6) szerinti ξ = 1 A1 + 1 A2 +... + 1 An felbontást, akkor kapjuk: E(ξ) = np = n M N. Továbbá miatt kapjuk amiből a szórás értéke: ξ 2 = 1 A1 + 1 A2 +... + 1 An + i j=1,2,...,n E(ξ 2 M(M 1) ) = np + n(n 1) N(N 1), D(ξ) = np(1 p) [ 1 n 1 ]. N 1 1 Ai A j (2,3) Binomiális eloszlás A ξ Bin(n; p) v.v. eloszlása: Használjuk a (3.7) P (ξ = k) = ( ) n p (1 p) n k k = 0, 1, 2,... n. k ξ = 1 A1 + 1 A2 +... + 1 An felbontást, ahol az összeadandó indikátorok most függetlenek is, ezért kapjuk E(ξ) = np D(ξ) = np(1 p). Kézirat, módosítva: 2006. október 24.

44 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS (4) Poisson eloszlás A ξ Po(λ) v.v. eloszlása: A megfelelő sorok összegzésével kapjuk (5) Exponenciális eloszlás A ξ Exp(λ) v.v. sűrűségfüggvénye: P (ξ = k) = λk k! e λ k N. E(ξ) = λ D(ξ) = λ. f(t) = λ e λt dt t > 0. A megfelelő integrálok kiszámításával kapjuk (6) Normális eloszlás E(ξ) = 1 λ D(ξ) = 1 λ. A ξ 0 N (0; 1) standard normális eloszlású v.v. sűrűségfüggvénye: A várható érték kiszámításához most az ϕ(x) = 1 2π e x2 2 x R. + x 1 2π e x2 2 dx improprius integrál abszolut konvergenciáját kell ellenőrízni, amihez számoljuk ki az + 1 0 x e x2 1 2 dx = x e x2 1 2 dx = 2π 2π 2π 0 konvergens integrálokat, amiből kapjuk A szórást az E(ξ 2 0) = + E(ξ 0 ) = 0. x 2 1 2π e x2 2 dx = 1 konvergens improprius integrált felhasználva kapjuk D(ξ 0 ) = 1. Mivel ξ = σξ 0 + m N (m; σ), kapjuk tetszőleges normális eloszlás várható értékét és szórását E(ξ) = m D(ξ) = σ.

4.4. MOMENTUMOK, KOVARIANCIA 45 (7) Egyenletes eloszlás A ξ U(a; b) v.v. sűrűségfüggvénye: f(x) = 1 b a A megfelelő integrálok kiszámításával kapjuk a < x < b. E(ξ) = a + b 2 D(ξ) = b a 2 3. 4.4. Momentumok, kovariancia A várható érték fogalmával természetesen adódnak a következők (a jelölt várható értékek létezését feltéve): 1. A ξ skalár v.v. (a) nulladik momentuma (b) első momentuma (c) második momentuma (d) n-edik momemtuma m 0 = E(ξ 0 ) = 1, m 1 = E(ξ), m 2 = E(ξ 2 ), m n = E(ξ n ) n N, (e) első centrális momentuma σ 1 = E(ξ m 1 ) = 0, (f) másodk centrális momentuma (variancia) σ 2 = E ( (ξ m 1 ) 2) = D 2 (ξ), (g) n-edik centrális momentuma σ n = E ((ξ m 1 ) n ) n N +. A várható érték tulajdonságaiból kapjuk az alábbi összefüggéseket: σ 2 = m 2 m 2 1 σ 3 = m 3 3m 2 m 1 + 2m 3 1. Kézirat, módosítva: 2006. október 24.

46 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS amiből az m n n = 2, 3,... momentumok is kifejezhetők m 1 és a centrális momentumok segítségével m 2 = σ 2 + m 2 1 m 3 = σ 3 + 3m 1 σ 2 + m 3 1. Megjegyzés: A centrális momentumokból szokás számolni az un. ferdeség és lapultság σ 3 σ 3 σ 4 σ 4 3 jellemzésére használt mérőszámokat, ahol σ = σ 2 = D(ξ). Ezek a mutatók a ξ E(ξ) ξ v.v. un. standardizáltjának harmadik illetve negyedik momentumai, ez D(ξ) utóbbiból levonva a N (0; 1) eloszlás negyedik momentumát (lásd 10. feladat). A ferdeség a szimmetria hiányának mértéke, a lapultság pedig a normális eloszlás sűrűségének lapultságához ad összehasonlítási alapot. 2. A ξ és η skalár v.v.-k (a) kovarianciája (kölcsönös varianciája) cov(ξ, η) = E [(ξ E(ξ)) (η E(η))] = E(ξ η) E(ξ) E(η), (b) ha még D(ξ), D(η) > 0, a két v.v. korrelációs együtthatója A (4.1) egyenlőtlenség szerint tehát r = cov(ξ, η) D(ξ) D(η). (4.3) cov(ξ, η) D(ξ) D(η) 1 r 1. Ezért a korrelációs együttható a két v.v. közötti függőség egyfajta normált mértéke, ugyanis ha ξ és η függetlenek cov(ξ, η) = r = 0 P (η = aξ + b) = 1 vagy P (ξ = aη + b) = 1 a, b R r = ±1.

4.5. FELADATOK 47 Két v.v. kovarianciája fontos szerepet játszik a következő un. regressziós feladat megoldásában. Feladat: Legyenek ξ és η ( L 2 ) skalár valószínűségi változók, és keressük az a, b R regressziós együtthatókat, melyekkel az közelítés a legjobb, azaz a maradék minimális. η aξ + b σ 2 R = E [ (η aξ b) 2] Megoldás: Ha D 2 (ξ) = 0, akkor P (ξ = E(ξ)) = 1, tehát a minimum-feladat megoldása a várható érték minimum tulajdonsága miatt Ha D 2 (ξ) > 0, akkor az a = 0 b = E(η) és σ 2 R = D2 (η). E [ (η aξ b) 2] = D 2 (ξ) a 2 2 cov(ξ, η) a + D 2 (η) + [E(η) a E(ξ) b] 2 célfüggvény minimumhelye a = cov(ξ, η) D 2 (ξ) b = E(η) a E(ξ) és σ 2 R = D 2 (η)(1 r 2 ). (4.4) 4.5. Feladatok 1. Legyen ξ Ω R v.v., mutassuk meg, hogy E(ξ) akkor és csak akkor létezik, ha a P ( ξ > n) sor konvergens! n=1 2. Bizonyítsuk az un. parciális integrálás szabályát: Legyen ξ 0 v.v. eloszlásfüggvénye F, akkor x 0 tdp ξ (t) = x 0 (1 F (t)) dt x (1 F (x)). 3. Mutassuk meg, hogy ha a ξ 0 v.v.-nak létezik várható értéke, akkor lim x P (ξ > x) = 0. x Kézirat, módosítva: 2006. október 24.

48 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS 4. Legyen a ξ : Ω N v.v. diszkrét eloszlású. Mutassuk meg, hogy ξ L 1 pontosan akkor, ha a P (ξ > k) sor konvergens, és ekkor k=0 E(ξ) = P (ξ > k) k=0 5. Legyen a ξ : Ω R + 0 v.v. eloszlásfüggvénye F. Mutassuk meg, hogy ξ L 1 pontosan akkor, ha az integrál véges, és ekkor + 0 P (ξ > x)dx = E(ξ) = + 0 + 0 (1 F (x)) dx (1 F (x)) dx. 6. Legyenek ξ 1, ξ 2,..., ξ n skalár v.v.-k, és h : R n R konvex függvény, azaz minden (x 01, x 02,..., x 0n ) R n ponthoz van olyan lineáris függvény, hogy teljesül h(x 1, x 2,..., x n ) h(x 01, x 02,..., x 0n )+a 1 (x 1 x 01 )+a 2 (x 2 x 02 )+ +a n (x n x 0n ) és léteznek a megfelelő várható értékek, akkor h (E(ξ 1 ), E(ξ 2 ),..., E(ξ n )) E (h(ξ 1, ξ 2,..., ξ n )). 7. Válasszunk véletlenszerűen egy pontot az origó középpontú egység sugarú körben, jelölje (ξ, η) a pont koordinátáit. Számítsuk ki ξ, η és ξ η várható értékét, ξ és η szórását! 8. Dobjunk két kockát, jelölje az eredmények minimumát ξ, maximumát η. Számítsuk ki várható értéküket! 9. Legyen ξ folytonos eloszlású f(x) = c 1 + x 2 x R sűrűségfüggvénnyel, mutassuk meg, hogy E(ξ) nem létezik! 10. Legyen ξ N (0; 1), számítsuk ki ξ momentumait: σ 2n = E(ξ 2n ) = (2n 1) (2n 3)... 3 1 = (2n)! 2 n n! σ 2n+1 = E(ξ 2n+1 ) = 0 n = 0, 1, 2,...

4.5. FELADATOK 49 11. Egy p < 1 valószínűségű eseményt ismételten megfigyelünk az első bekövetkezésig. Legyen a ξ v.v. értéke 2 k ha ez a k-adik ismétlésben történik, k = 1, 2,.... Adjuk meg ξ várható értékét és szórását. 12. Egy hallgató egy tárgyból háromszor vizsgázhat. Az egyes vizsgák eredményessége egymástól (teljesen) független, és sikeres vizsga valószínűsége rendre 0.6, 0.8 és 0.9. Jelölje a ξ valószínűségi változó az első sikeres vizsga sorszámát, illetve legye értéke 0, ha mindhárom sikertelen. Mennyi M(ξ) és D(ξ) értéke? 13. A következő szerencsjátékot játszuk egy T összeg befizetése ellenében: kockát dobunk, és ha az eredmény 3-nál több, az eredmény négyzetének értékét nyerjük, egyébként még fizetünk annyit amennyi a dobás eredménye. Milyen T esetén érdemes játszani? Határesetben mennyi az egyenleg várható értéke és szórása? 14. Egy ujságárusnál egy adott lapot átlagosan 100 vásárló keres egy napon. Mennyit kell naponta rendelnie, hogy a várható haszna maximális legyen, ha az 50Ft-ért beszerzett lapot 60Ft-ért adja a vásárlónak, és a megmaradt példányokat 30Ft-ért veszi vissza a terjesztő? Kézirat, módosítva: 2006. október 24.

50 4. FEJEZET. VÁRHATÓ ÉRTÉK, SZÓRÁS

5. fejezet Nagy számok törvénye Ebben a fejezetben azt a tapasztalati tényt igazoljuk a matematikai modellben, hogy véletlen jelenségek nagy számú megfigyelése során bizonyos kiegyenlítődés figyelhető meg, mint például a relatív gyakoriság egyre kissebb mértékű ingadozása. 5.1. Nevezetes egyenlőtlenségek A következő állítások véletlen mennyiségek ingadozásainak mértékéről adnak becslést, lényegében korlátosságukat állítva. 5.1. Tétel (Markov egyenlőtlenség). Legyen ξ 0 v.v., λ > 0, és E(ξ) > 0, akkor P (ξ λ E(ξ)) 1 λ (5.1) Bizonyítás. Jelölje m = E(ξ) > 0, akkor a várható érték monoton tulajdonságából ξ λ m 1 {ξ λ E(ξ)} m λ m P (ξ λ m) amiből rendezéssel kapjuk a bizonyítandó egyenlőtlenséget. 5.2. Tétel (Csebisev egyenlőtlenség). Legyen ξ skalár v.v., λ > 0, és D(ξ) > 0, akkor P ( ξ E(ξ) λ D(ξ)) 1 λ 2 (5.2) Bizonyítás. Írjuk a Markov egyenlőtlenséget a (ξ E(ξ))2 0 v.v.-val és λ 2 > 0 számmal, akkor kapjuk ami a bizonyítandó (5.2)-egyenlőtlenség. P ( (ξ E(ξ)) 2 λ 2 D 2 (ξ) ) 1 λ 2 51

52 5. FEJEZET. NAGY SZÁMOK TÖRVÉNYE Következmények: 1. A Markov egyenlőtlenségben λ = ε helyettesítéssel kapjuk tetszőleges 0 < ε E(ξ) esetén P (ξ ε) E(ξ), (5.3) ε ami már az E(ξ) = 0 esetben is teljesül. 2. Hasonlóan nyerhetjük a Csebisev egyenlőtlenség következő alakját ε > 0 esetén ami teljesül a D(ξ) = 0 esetben is. P ( ξ E(ξ) ε) D2 (ξ) ε 2, (5.4) 3. A Markov illetve Csebisev egyenlőtlenségek egyfajta korlátosságot állítanak, annak megfelelően, hogy létezik a várható érték illetve a szórás. Ha még feltesszük E(ξ 4 ) létezését, akkor létezik az E [ (ξ E(ξ)) 4] negyedik centrális momentum, és hasonlóan kapjuk P ( ξ E(ξ) ε) E [ (ξ E(ξ)) 4] ε 4, (5.5) ami esetenként még szigrúbb korlátot jelenet mint (5.4) ugyanazon esemény valószínűségére. 4. Alkalmazzuk az (5.4) illetve (5.5) egyenlőtlenségeket a (ξ n ) n=1 eloszlású v.v.-k sorozatából nyert ξ = 1 n n k=1 ξ k átlagra: független, azonos (a) ha σ 2 = D 2 (ξ n ) n = 1, 2,... és ε > 0, akkor P ( ξ m ε ) σ 2 nε 2 (5.6) (b) ha σ 4 = E [ (ξ n E(ξ n )) 4] n = 1, 2,... és ε > 0, akkor ahol m = E(ξ n ) P ( ξ m ε ) 3σ 4 n 2 ε 4 (5.7) n = 1, 2,... a közös várható érték. Bizonyítás. Mivel m = E( ξ) és D 2 ( ξ) = σ 2 n (5.4)-ből következik (5.6). (5.7) igazolásához számoljuk ki az átlag negyedik centrális momentumát: ( [ ) ] n ) 4 E ( ξ m = 1 4 n E (ξ 4 k m) = = 1 n 4 E [ k=1 k 1 +k 2,...+k n=4 (ξ 1 m) k1 (ξ 2 m) k2... (ξ n m) kn ] = = 1 ( ) ] n 4! [n σ n 4 4 + 2 2!2! σ2 2 = 1 [ ] n σ4 + 3n(n 1)σ 2 n 4 2

5.2. NAGY SZÁMOK TÖRVÉNYEI 53 ahol kihasználva a sorozat tagjainak függetlenségét, az E [ (ξ k m) (ξ l m) 3] = 0 k l = 1, 2,... n tagokat elhagyhattuk. A várható érték konvexitása szerint és használjuk az [ ) ] 4 E ( ξ m becslést (5.5)-ben, így kapjuk (5.7)-et. σ 2 2 = E2 [ (ξ k m) 2] σ 4, 5.2. Nagy számok törvényei 1 n 4 [n σ 4 + 3n(n 1)σ 4 ] 3σ 4 n 2 5.3. Tétel (Nagy számok gyenge törvénye). Legyenek (ξ n ) n=1 független, azonos eloszlású skalár v.v.-k, és létezzen m = E(ξ k ), σ = D(ξ k ) k = 1, 2,... közös várható értékük, szórásuk. Akkor ε > 0 esetén ( ) lim P 1 n ξ n n k m ε = 0. (5.8) k=1 Bizonyítás. Az állítás következik (5.6)-ből. 5.4. Következmény (Nagy számok Bernoulli törvénye). Legyen η n Bin(n; p) n = 1, 2,... és ε > 0, akkor ( lim P η ) n n n p ε = 0. Bizonyítás. Mivel független, azonos p-valószínűségű események indikátorainak összege binomiális eloszlású, (5.8)-ből következik az állítás. 5.5. Tétel (Nagy számok erős törvénye). Legyenek (ξ n ) n=1 független, azonos eloszlású skalár v.v.-k, és létezzen közös m = E(ξ n ) várható értékük, akkor ( ) 1 n P lim ξ n n k = m = 1. k=1 Bizonyítás. A bizonyítást itt csak abban az esetben adjuk meg, amikor léteznek a σ 4 = E [(ξ k m) 4 ] k = 1, 2,... közös negyedik centrális momentumok. Jelölje { } 1 n A N = ξ n k m > 1 A N M=1 n=m k=1 Kézirat, módosítva: 2006. október 24.

54 5. FEJEZET. NAGY SZÁMOK TÖRVÉNYE eseményt, melynek ω A N pontjaiban a ( 1 n n k=1 ξ k) (függvény-) sorozat nem konvergálhat m-hez. Az összes ilyen elemi események halmaza ekkor n=1 az A = A N A N=1 esemény, ami a monoton bővülő (A N ) N=1 eseménysorozat egyesítése, ezért a valószínűségi mérték folytonossága miatt P (A) = lim P (A N). (5.9) N A valószínűségi mérték monoton és szubadditív tulajdonságából kapjuk tetszőleges M N + esetén ( { }) ( ) 1 n P (A N ) P ξ n k m > 1 1 n P ξ N n k m > 1, N n=m k=1 amit (5.7) felhasználásával tovább növelve kapjuk P (A N ) n=m+1 n=m+1 3σ 4 n 2 ( 1 N ami egy konvergens sor összegének és M-edik részletösszegének eltérése, ami tetszőlegesen kicsi lesz, ha M elég nagy. Tehát P (A N ) = 0, amiből (5.9) miatt következik az állítás. A fenti állítások azt fejezik ki, hogy azonos eloszlású, független valószínűségi változók átlaga bizonyos értelemben közeledik a várható értékhez. Ez az 5.3 és 5.4 tételek esetén az un. sztochasztikus (vagy mértékben való) konvergenciát jelenti, az 5.5 tétel pedig egy nulla valószínűségű esemény kivételével a pontonkénti, un. majdnem biztos (vagy majdnem mindenütt) konvergenciát állítja. 5.3. Feladatok 1. Legyen egy ξ v.v. várható értéke E(ξ) = 100, szórása D(ξ) = 2. Mit mondhatunk a P (ξ 110) P (90 < ξ < 110) valószínűségekről? Adjuk meg a választ normális és egyenletes eloszlás esetén! 2. Borel-Cantelli lemma: Legyenek A 1, A 2,..., A n,... A események, és jelölje A = n=1 ( k=n A k), akkor teljesül ) 4 k=1 P (A n ) < + = P (A) = 0 ; n=1

5.3. FELADATOK 55 ha még az A 1, A 2,..., A n,... A események függetlenek, akkor teljesül P (A n ) = + = P (A) = 1. n=1 3. Mutassuk meg, hogy ha a ξ 1, ξ 2,..., ξ n,... független, azonos eloszlású valószínűségi változók esetén 1-valószínűséggel létezik a 1 lim n n n k=1 határérték, akkor létezik az m = E(ξ n ) közös várható érték! ξ k Kézirat, módosítva: 2006. október 24.

56 5. FEJEZET. NAGY SZÁMOK TÖRVÉNYE

6. fejezet Karakterisztikus függvény Már láttuk, hogy valószínűségi változók eloszlását meghatározza az eloszlásfüggvény. Most egy újabb, ugyancsak egyértelmű azonosításra alkalmas fogalmat vezetünk be. Ehhez használjuk a várható érték fogalmának komplex értékű valószínűségi változókra történő E(ζ) = E (Re(ζ)) + i E (Im(ζ)) kiterjesztését, ahol a ζ : Ω C valós és képzetes részei skalár értékű valószínűségi változók. Az így kiterjesztett várható érték is rendelkezik a már korábban megismert, és ebben az esetben is megfogalmazható tulajdonságokkal (pl. homogén és additív, de a nemnegatív illetve monoton tulajdonság nem értelmezhető). A komplex számok x + iy = h(x, y) = x 2 + y 2 x, y R abszulut értékét megadó h függvény konvexitásából most is következik (lásd: 48. oldal 6. feladat) E(ζ) E ( ζ ). 6.1. Definíció. i) A ξ : Ω R skalár v.v. krakterisztikus függvényének nevezzük a függvényt. φ ξ : R C t E ( e itξ) (6.1) ii) A ξ : Ω N nemnegatív egész értékű v.v. generátorfüggvényének nevezzük a függvényt. Megjegyzések: G ξ : C C z E ( z ξ) = 57 z n P (ξ = n) (6.2) n=0

58 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY 1. φ ξ értelmezett minden t R esetén, mivel e itξ = 1 és korlátos v.v.-nak mindíg van várható értéke. Speciálisan φ ξ (0) = 1. 2. G ξ egy, a zárt egységkörben konvergens hatványsor összegfüggvénye, melynek konvergencia sugara legalább 1, mivel z 1 esetén z n P (ξ = n) n=0 P (ξ = n) = 1 = G ξ (1). n=0 3. Nemnegatív egész értékű v.v. karaktarisztikus függvényét megkaphatjuk generátorfüggvényéből: ( φ ξ (t) = G ) ξ e it t R 4. A várható érték kiszámítási szabályainak megfelelően, ha (a) ξ diszkrét eloszlású, akkor φ ξ (t) = x e itx P (ξ = x) t R, (6.3) ahol az összegzés azon véges vagy megszámlálhatóan sok x R esetén értendő, melyre P (ξ = x) > 0. (b) ξ folytonos eloszlású f : R R + 0 sűrűségfüggvénnyel, akkor φ ξ (t) = + e itx f(x)dx t R, (6.4) ahol f : R R + 0 a ξ v.v. sűrűségfüggvénye. 5. Egy ξ v.v. karakterisztikus függvényét meghatározza ξ eloszlása, ezért beszélhetünk a megfelelő eloszlások karakterisztikus függvényéről. A karakterisztikus függvény tulajdonságai 1. A karakterisztikus függvény folytonos t R esetén, mivel e i(t+h)ξ e itξ e ihξ 1 2 amiből következik a határérték és a várható érték felcserélhetősége, tehát ( lim φξ (t + h) φ ξ (t) ) ( ( = E lim e i(t+h)ξ e itξ)) = 0 h 0 h 0 2. φ ξ korlátos függvény, mivel φξ (t) = E(e itξ ) E ( e itξ ) = φ ξ (0) = 1.

59 3. Ha létezik az E(ξ n ) várható érték, akkor φ ξ n-szer differenciálható, és illetve speciálisan t = 0 esetben φ (k) ξ (t) = i k E(ξ k e itξ ) t R k = 1, 2,... n ; φ (k) ξ (0) = i k E(ξ k ) k = 1, 2,... n. Hasonlóan kapjuk nemnegatív egész értéket felvevő v.v. esetén a generátorfüggvény deriváltjaira: G (k) ξ (1) = E (ξ(ξ 1)(ξ 2) (ξ k + 1)) Bizonyítás. Elég megmutatni, hogy a deriválás és a várható érték képzés sorrendje felcserélhető, amihez megmutatjuk, hogy a megfelelő különbségi hányadosnak van integrálható majoránsa. Nézzük ezt a legegyszerűbb, k = 1 esetben. Mivel ekkor E(ξ) is létezik, és e i(t+h)ξ e itξ h = ξ e ihξ 1 hξ K ξ ahol K a korlátos x { e ix 1 ix ha x R\{0} 1 ha x = 0 (6.5) függvény felső korlátja. Tehát a h 0 határátmenet és az integrálás (lásd A. függelék, (A.9)) sorrendje felcserélhető, és kapjuk ( ) e i(t+h)ξ e itξ φ ξ(t) = lim E = E(iξe itξ ) t R. h 0 h A k > 1 esetben hasonlóan járunk el, csak akkor ξ k várható értékének létezését használjuk ki. Következmény: ahol teljesül Írjuk a Taylor formulát a t = 0 pontban φ ξ (t) = n (it) k E(ξ k ) + R n (t) t R, k! k=0 1 lim t 0 t R n(t) = 0. n 4. Ha létezik az E(ξ n ) várható érték n N, akkor φ ξ (t) = k=0 (it) k E(ξ k ) k! a hatványsor konvergencia tartományában. Kézirat, módosítva: 2006. október 24.

60 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY Bizonyítás. Elég megmutatni, hogy a Taylor formula 2n 1-edik maradéktagjára φ (2n) ξ (ϑ) R 2n 1 (t) = (2n)! t2n = i 2n E(ξ 2n e iϑξ ) (2n)! t2n E(ξ2n ) t 2n 0 (2n)! ami a konvergencia tartományban teljesül. 5. Bizonyítás nélkül megemlítjük, hogy a 3. tulajdonság részbeni megfordítása is igaz, nevezetesen: φ (2n) ξ (0) E(ξ 2n ). 6. Ha ξ karakterisztikus függvénye φ ξ, akkor a, b R esetén az η = aξ + b karakterisztikus függvénye és speciálisan φ η (t) = E ( e it(aξ+b)) = e itb φ ξ (at) t R. φ ξ (t) = E ( e itξ) = φ ξ ( t) = φ ξ (t). Ha tehát ξ eloszlása szimmetrikus, azaz ξ és ξ eloszlása azonos, akkor karakterisztikus függvénye valós értékű. 7. Ha ξ és η v.v.-k függetlenk, akkor φ ξ+η (t) = E ( e it(ξ+η)) = E ( e itξ) E ( e itη) = φ ξ (t) φ η (t) t R.. 8. φ ξ : R C úgynevezett pozitív szemidefinit függvény, azaz esetén teljesül: Bizonyítás. Mivel n 0 z k e it kξ kapjuk k=1 0 E t 1, t 2,..., t n R és z 1, z 2,..., z n C 2 ( n k=1 = 0 n k=1 n k=1 n φ ξ (t k t l ) z k z l l=1 n e it kξ e it lξ z k z l = l=1 ) n e i(t k tl)ξ z k z l = l=1 n k=1 n k=1 n e i(t k t l )ξ z k z l l=1 n φ ξ (t k t l ) z k z l l=1 A (6.3) és (6.4) kiszámítási formulákból és a fenti tulajdonságokból közvetlenül megkaphatók az alábbi eloszlások karakterisztikus függvényei.

6.1. HATÁRELOSZLÁSOK 61 1. A A, és ξ = 1 A, akkor G ξ (z) = 1 P (A) + z P (A) z C ; φ ξ (t) = 1 P (A) + e it P (A) t R ; 2. A 1, A 2,..., A n A függetlenek, és P (A k ) = p k = 1, 2,... n, akkor a ξ = n k=1 1 A k Bin(n; p) v.v. esetén φ ξ (t) = ( p (e it 1 ) + 1 ) n t R ; 3. ξ Geom(p), akkor G ξ (z) = z k (1 p) k 1 p = k=1 zp 1 z + zp z < 1 1 p ; φ ξ (t) = e it p 1 e it + e it p t R ; Amiből megkaphatjuk a diszkrét geometriai eloszlás várható értékét és szórását: G (z) = G (z) = p (1 z + zp) 2 G (1) = 1 p = E(ξ) 2p (1 p) (1 z + zp) 3 2 (1 p) G (1) = = E(ξ 2 ) E(ξ) p 2 tehát E(ξ) = 1 p, és D(ξ) = 2 (1 p) + 1 p 2 p ( ) 2 1 (1 p) = p p. 4. ξ U(a, b), akkor 5. ξ Exp(λ), akkor φ ξ (t) = φ ξ (t) = eibt e iat i(b a)t λ λ it = 1 1 itt t R ; t R T = 1 λ. 6.1. Határeloszlások Most bizonyítás nélkül kimondunk két tételt, melyek a karakterisztikus függvény két további fontos tulajdonságát állítják. Kézirat, módosítva: 2006. október 24.

62 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY 6.2. Tétel (Egyértelműségi tétel). Egy ξ v.v. φ ξ karakterisztikus függvénye meghatározza ξ F : R [0; 1] eloszlásfüggvényét, nevezetesen ha a < b R az F eloszlásfüggvény folytonossági helyei, akkor F (b) F (a) = lim T 1 2π T T e iat e ibt φ it ξ (t)dt. (6.6) 6.3. Következmény. Ha φ ξ integrálható, akkor az eloszlásfüggvény F = f deriváltja mindenütt létezik, tehát ξ folytonos eloszlású f(x) = F (x) = 1 2π folytonos és korlátos sűrűségfüggvénnyel. Bizonyítás. φ ξ integrálhatósága esetén e ixt φ ξ (t)dt x R (6.7) lim T 1 2π T T e iat e ibt it φ ξ (t)dt = lim T = 1 2π 1 2π 1 { T x T } e iat e ibt φ it ξ (t)dt = e iat e ibt φ it ξ (t)dt = F (b) F (a) mivel ekkor az integrandusnak van T -től nem függő integrálható majoránsa (lásd A. függelék, (A.9)): 1 { T x T } e iat e ibt φ it ξ (t) (b a) e ita e it(b a) 1 it(b a) φ ξ(t) (b a) K φξ (t), ahol K a már említett (6.5) függvény felső korlátja. Ebből kapjuk F (b) F (a) b a = 1 2π e ibt e iat it(b a) φ ξ(t)dt, amiből a b a határérték képzésével (hasonlóan találva b-től nem függő integrálható majoránst) kapjuk az állítást, mivel F folytonossági helyei sűrű halmazt alkotnak (lásd 35. oldal 1. feladat). f folytonossága és korlátossága következik a (6.7) formulából. Az egyértelműségi tétel ad választ arra a nevezetes problémára is, hogy egy ξ v.v. eloszlását mikor határozzák meg momentumai, az E(ξ k ) k = 1, 2,... mennyiségek. Ha ugyanis léteznek ezek a várható értékek, és a φ ξ karakterisztikus függvényt előállítja (t = 0 pontban felírt) Taylor sora, akkor az eloszlást már meghatározza momentumainak sorozata.

6.1. HATÁRELOSZLÁSOK 63 6.4. Tétel (Folytonossági tétel). Legyen (F n ) n N eloszlásfüggvények gyengén konvergens sorozata, azaz lim F n(x) = F (x) x {x R F folytonos az x pontban}, n és F eloszlásfüggvény, akkor az F n eloszlásfüggvényhez tartozó φ n karakterisztikus függvények (n N) sorozata konvergens, és lim φ n = φ n az F eloszlásfüggvényhez tartozó karakterisztikus függvény. Megfordítva, ha létezik a φ(t) = lim n φ n (t) t R határfüggvény, és φ folytonos a t = 0 pontban, akkor a megfelelő (F n ) n N eloszlásfüggvények sorozata gyengén konvergens, azaz lim F n(x) = F (x) x {x R F folytonos az x pontban}, n és F eloszlásfüggvény, amelyhez tartozó karakterisztikus függvény φ. Alkalmazzuk most a fentieket további nevezetes eloszlások karakterisztikus függvényének megadásához. 1. Poisson eloszlás karakterisztikus függvénye. Mivel a binomiális eloszlás tagjainak határértke λ = np esetben egy λ paraméterű Poisson eloszlás megfelelő tagja, az eloszlásfüggvények (gyenge) konvergenciája miatt kapjuk a φ(t) = lim n Po(λ) eloszlás karakterisztikus függvényét. ( λ n (e it 1 ) ) n + 1 = exp ( λ ( e it 1 )) t R 2. Cauchy eloszlás karakterisztikus függvénye. Mivel az f(x) = 1 2 e x x R sűrűségfüggvényű eloszlás karakterisztikus függvénye (lásd: 5. feladat) φ(t) = 1, az egyértelműségi tétel következménye szerint 1+t 2 amiből kapjuk 1 2 e a = 1 2π e a = e iat ( 1 π e iat 1 1 + t 2 dt a R, ) 1 dt a R, 1 + t 2 ami a Cauchy eloszlás karakterisztikus függvényét adja meg. Kézirat, módosítva: 2006. október 24.

64 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY 3. Normális eloszlás karakterisztikus függvénye. Legyen ξ N (0, 1), akkor (lásd 48. oldal 10. feladat) E(ξ 2n ) = (2n 1) (2n 3)... 3 1 = (2n)! 2 n n! amiből kapjuk φ ξ (t) = ( 1) k k=0 ( ) k t 2 2 k! E(ξ 2n+1 ) = 0 n = 0, 1, 2,... = e t2 2 t R, mivel a sor konvergens az egész számegyenesen. Ha σ > 0 és m R, akkor σξ + m N (m, σ), és így kapjuk tetszőleges normális eloszlás karakterisztikus függvényét. φ(t) = e imt t2 σ 2 2 t R, Egy további nevezetes alkalmazás a következő tétel. 6.5. Tétel (Központi határeloszlás tétel, C.H.T.). Legyenek ξ 1, ξ 2,..., ξ n,... azonos eloszlású, független (skalár értékű) valószínűségi változók. Jelölje közös várható értéküket és szórásukat akkor teljesül a következő lim P n m = E(ξ k ) σ = D(ξ k ) k = 1, 2,... ( 1 n n k=1 ξ ) k m n < x = Φ(x) x R σ Bizonyítás. Legyen φ 0 a ξ k m v.v.-k közös karakterisztikus függvénye. Mivel σ ( ) ( ) [ (ξk ) ] 2 ξk m ξk m m E = 0 D = E = 1, σ σ σ φ 0 Taylor formulája a t = 0 pontban φ 0 (t) = 1 t2 2 R(t) + R(t) t R és lim = 0 t 0 t 2 Jelölje továbbá φ 1 az ξ k m σ 1 n v.v. karakterisztikus függvényét, akkor amiből φ 1 (t) = φ 0 ( t n ) = 1 t2 2n + R( t n ) t R, η n = 1 n n k=1 ξ k m σ n = n k=1 ξ k m σ 1 n

6.1. HATÁRELOSZLÁSOK 65 miatt az η n krakterisztikus függvénye φ n (t) = φ n 1(t) = (1 t2 2n + R( t n )) n t R. Használjuk a következő határértéket: Ha (r n ) n=1 C sorozatra teljesül lim n n r n = 0, és a C, akkor ( lim 1 + a n n) n n + r = exp(a). Mivel a maradéktag tulajdonsága miatt n R( t n ) 0, kapjuk lim φ n(t) = e t 2 t R n ami az N (0, 1) eloszlás karakterisztikus függvénye, amit bizonyítani kellett. 6.6. Következmény (Moivre-Laplace tétel). Legyen η n Bin(n; p), akkor ( ) lim P η n np < x = Φ(x) x R. n np(1 p) Bizonyítás. Mivel η n felírható p-valószínűségű független események indikátorainak összegeként, az állítás következik az előző tételből. A centrális határeloszlás tételt (röviden C.H.T.) úgy alkalmazhatjuk, hogy sok független és azonos eloszlású v.v. összegének standardizáltját közelítően standard normális eloszlásúnak teküntjük, vagyis az összeg eloszlását normális eloszlással közelíthetjük. Az természetesen általában nem adható meg, hogy milyen n értéktől elfogadható a közelítés, de pl. a binomiális eloszlás esetén np > 10 esetben ez már kielégítő. Ha ξ diszkrét eloszlású, N-beli lehetséges értékekkel, karakterisztikus függvényét, és így eloszlását meghatározza generátorfüggvénye. A generátorfüggvény is meghatározza deriváltjaival a ξ : Ω N v.v. momentumait ha azok léteznek, nevezetesen: G ξ (1) = 1 G ξ (1) = E(ξ) G ξ (1) = E(ξ 2 ) E(ξ). G (k) ξ (1) = E (ξ (ξ 1) (ξ 2)... (ξ k + 1)) Használjuk mindezt annak igazolására, hogy a hipergeometrikus eloszlás közelithető a binomiális eloszlással nagy N, M esetén. Elég megmutatnunk, hogy momentumaik közelednek egymáshoz, vagy ami ugyanaz, deriváltjaik a z = 1 helyen, ezért generátorfüggvényeik is, melyek n-edfokú polinomok, tehát karakterisztikus függvényeik is, amiből 2 Kézirat, módosítva: 2006. október 24.

66 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY következik az eloszlások hasonló konvergenciája. Az n-edrendű p-paraméterű binomiális eloszlás generátorfüggvénye: n ( ) n G(z) = z k p k (1 p) n k = (zp + 1 p) n z C, k amiből k=0 G ξ(1) = np G ξ (1) = n(n 1)p2. G (k) ξ (1) = n(n 1)... (n k + 1)pk k = 1, 2,... n Az N > M paraméterű hipergeometrikus eloszlás generátorfüggvénye: ( n M )( N M ) k n k H(z) = ( N z n) k z C amiből egyszerű számolással kapjuk: H ξ (1) = n M N H M ξ (1) = n(n 1) N M 1 N 1. k=0 H (k) ξ (1) = n(n 1)... (n k + 1) M N M 1 N 1... M k + 1 N k + 1 Ha még feltesszük, hogy M, N és p = M N 6.2. Véletlen tagszámú összeg Vizsgáljuk most a következő esetet. Legyenek a ν : Ω N, ξ 1, ξ 2,..., ξ n,... v.v.-k teljesen függetlenek, és az utóbbiak azonos eloszlásúak összeget ν η = ξ k = 1 {ν k} ξ k, k=0 k=1 k = 1, 2,... n állandó, kapjuk a bizonyítandó állítást. ahol ξ 0 = 0. Ekkor η karakterisztikus függvénye ( ) k φ η (t) = E 1 {ν=k} = P (ν = k) φ k (t) k=0 j=0 e itξ j k=0 Jelölje η v.v. az alábbi t R

6.3. FELADATOK 67 ahol φ a ξ k k = 1, 2,... v.v.-k közös karakterisztikus függvénye, és ha G(z) = P (ν = k) z k k=0 z C jelöli ν generátorfüggvényét, kapjuk φ η (t) = G φ(t) t R. Ebből kapjuk η várható értékére ha létezik µ = E(ν) és m = E(ξ k ): ie(η) = φ η (0) = G (1) φ (0) = i µ m vagyis Továbbá amiből vagyis E(η) = µ m. E(η 2 ) = φ η (0) = G (1) [φ (0)] 2 + G (1) φ (0) E(η 2 ) = m 2 ( E(ν 2 ) µ ) + µ E(ξ 2 k) D 2 (η) = m 2 δ 2 + µ σ 2 ahol δ 2 = D 2 (ν) és σ 2 = D 2 (ξ k ) k = 1, 2,.... 6.3. Feladatok 1. Két kockával dobunk. Jelölje ξ és η a két dobás eredményét, írjuk fel a ξ 2 + η 2 v.v. generátorfüggvényét, eloszlását! 2. Adjuk meg a χ 2 2n eloszlás karakterisztikus függvényét! 3. Egy szekrény hat fiókjában kellene rendet tennünk. Egy kocka dobásával döntjük el, hogy hány fiókot teszünk rendbe. Ha egy fiók rendezéséhez szükséges idő egyenletes eloszlású a 0-10 perc intervallumban, mi a rendezéssel töltött idő karakterisztikus függvénye, várható értéke és szórása? 4. Legyenek a ξ és η v.v.-k függetlenek, eloszlásuk pedig x ı P (ξ = x ı ) 1 1 3 2 4 3 y j P (η = x j ) 2 2 3 1 5 3. Adjuk meg ξ, η és ξ + η generátorfüggvényét, és ξ + η eloszlását! Kézirat, módosítva: 2006. október 24.

68 6. FEJEZET. KARAKTERISZTIKUS FÜGGVÉNY 5. Legyena ξ v.v. sűrűségfüggvénye adjuk meg ξ karakterisztikus függvényét! 6. Legyen a ξ v.v. sűrűségfüggvénye f(x) = adjuk meg ξ karakterisztikus függvényét! f(x) = 1 2 e x x R, { 0 ha x < 0 4xe 2x ha 0 x, 7. Legyenek a ξ és η v.v.-k függetlenek, eloszlásuk pedig P (ξ = k) = P (η = k) = 1 ( ) k 1 2 k = 1, 2,.... 3 3 Adjuk meg ξ, η és ξ + η generátorfüggvényét! 8. Legyen a ξ v.v. sűrűségfüggvénye { 3 8 f(x) = x2 ha 0 < x < 2 0 egyébként adjuk meg ξ karakterisztikus függvényét!, 9. Egy bizonyos típusú alkatrész, ha hibátlan átlagosan 10 óráig működőképes. Öt ilyen alkatrészt vásárolunk egy olyan gyártótól, amely termékeinek 10%-a hibás. Jelülje η v.v. a megvásárolt termékek összzes működési idejét, írjuk fel η karakterisztikus függvényét, várható értékét és szórását! 10. Egy üzletbe bejővő vásárló exponenciális eloszlású véletlen összeget költ el ha megtalálja az általa keresett terméket. Ilyenkor az átlagos vásárlási érték 1000Ft. Annak valószínűsége, hogy megtaláható a keresett termék, 0.7. Jelölje η az első sikertelen vásárlásig befolyt bevétel összegét, adjuk meg η (a) karakterisztikus függvényét! (b) várható értékét és szórását! 11. Egy sorsoláson p = 0.5 valószínűséggel lehet egy 100 óra várható élettartamú izzólámpát nyerni. 10 sorsoláson igy nyert izzók ősszélettartamát jelölje az η valószínűségi változó. Adjuk meg η karakterisztikus függvényét, várható értékét és szórását! 12. Egy bizonyos típusú alkatrész, ha hibátlan átlagosan 10 óráig működőképes. Öt ilyen alkatrészt vásárolunk egy olyan gyártótól, amely termékeinek 10%-a hibás. Jelülje η v.v. a megvásárolt termékek összzes működési idejét, írjuk fel η karakterisztikus függvényét, várható értékét és szórását!

7. fejezet Vektor valószínűségi változók jellemzői 7.1. Jelölések, elnevezések p q típusú véletlen mátrixnak is nevezzük a ξ pq-dimenziós vektor valószínűségi változót, és komponenseit egy megfelelő méretű mátrixba rendezve, az alábbi jelöléseket használjuk: ξ 11 ξ 12 ξ 1q ξ 21 ξ 22 ξ 2q ξ =...... : Ω Rp q ξ p1 ξ p2 ξ pq A továbbiakban egy ξ = (ξ 1, ξ 2,... ξ n ) n-dimenziós vektor valószínűségi változót egy n 1 típusú véletlen mátrixként is használni fogunk, tehát ugyancsak ξ jelöli az oszlopvektort és ξ T ennek transzponáltját, azaz: ξ = ξ 1 ξ 2. ξ n ξ T = [ ξ 1 ξ 2 ξ n ]. A fentieknek megfelelően a továbbiakban használni fogjuk a mátrixokkal kapcsolatos szokásos műveleteket, igy például ha ξ és η két n-dimenziós v.v., skaláris szorzatuk < ξ, η >= ξ T η = n ξ k η k, k=1 a ξ v.v. hosszának négyzete pedig: ξ 2 =< ξ, ξ >= ξ T ξ = n ξ 2 i. i=1 69

70 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI 7.1.1. Várható érték, kovariancia mátrix 7.1. Definíció. Véletlen vektor illetve mátrix várható értékén a megfelelő komponensek várható értékéből képzett vektort illetve mátrixot értjük, tehát ξ 11 ξ 12 ξ 1q E(ξ 11 ) E(ξ 12 ) E(ξ 1q ) ξ 21 ξ 22 ξ 2q E...... = E(ξ 21 ) E(ξ 22 ) E(ξ 2q )...... Rp q ξ p1 ξ p2 ξ pq E(ξ p1 ) E(ξ p2 ) E(ξ pq ) A mátrix-műveletek és a várható érték tulajdonságaiból következnek például az alábbiak: 7.2. Definíció. A R n p, ξ : Ω R p q, B R q r E(AξB) = AE(ξ)B R n r i) A ξ = (ξ 1, ξ 2,..., ξ p ) p dimenziós vektor valószínűségi változó (auto-)kovariancia mátrixának nevezzük a cov(ξ, ξ) = [ cov(ξ i, ξ j ] i=1,2,...,p j=1,2,...,p p p típusú mátrixot. ii) A ξ = (ξ 1, ξ 2,..., ξ p ) p dimenziós és η = (η 1, η 2,... η q ) q dimenziós vektor valószínűségi változók (kereszt-)kovariancia mátrixának nevezzük a p q típusú mátrixot. cov(ξ, η) = [ cov(ξ ı, η j ) ] i=1,2,...,p j=1,2,...,q A kovarianci mátrix tulajdonságai a definíció közvetlen következményei: jelölje ξ és η a definícióban szereplő véletlen vektorokat, akkor könnyen ellenőrízhetőek az alábbiak. 1. 2. Kiszámítási formula: 3. Számolási szabályok : cov(ξ, η) T = cov(η, ξ), cov(ξ, ξ) T = cov(ξ, ξ). cov(ξ, η) = E(ξη T ) E(ξ)E(η) T. (a) Ha ζ egy további p-dimenziós vektor valószínűségi változó, akkor cov(ξ + ζ, η) = cov(ξ, η) + cov(ζ, η).

7.1. JELÖLÉSEK, ELNEVEZÉSEK 71 (b) Ha a ξ, η véletlen vektorok függetlenk, akkor cov(ξ, η) = 0 R p q. (c) Ha A R n p, a R n 1, B R r q, b R r 1, akkor cov(aξ + a, Bη + b) = A cov(ξ, η)b T R n r. (d) Ha ξ, η : Ω R n független v.v.v.-k, akkor cov(ξ + η, ξ + η) = cov(ξ, ξ) + cov(η, η). 4. A ξ kovariancia mátrixa szimmetrikus, pozitív szemidefinit mátrix, továbbá az alábbi állítások ekvivalensek: cov(ξ, ξ) invertálható; cov(ξ, ξ) pozitív definit; A cov(ξ, ξ)x = 0 n homogén lineáris egyenletrendszernek csak az x = (0, 0,... 0) R p triviális megoldása van. ξ komponensei között nincs lineáris összefüggés, azaz c = (c 1, c 2,... c p ) R p estén a p i=1 c iξ i valószínűségi változó nem lehet egy valószínűséggel állandó, ha c nem a zérus vektor. 7.1.2. Karakterisztikus függvény 7.3. Definíció. A ξ : Ω R n v.v.v. karakterisztikus függvényének nevezzük a függvényt. φ ξ : R n C t E ( e i<t,ξ>) A skalár esethez hasonlóan, most is teljesülnek az alábbi tulajdonságok: 1. A várható érték kiszámítási szabályainak megfelelően, ha (a) ξ diszkrét eloszlású {x 1, x 2,...} R n lehetséges értékekkel, akkor φ ξ (t) = k e i<t,x k> P (ξ = x k ) t R n (b) ξ folytonos eloszlású f : R n R + 0 sűrűségfüggvénnyel, akkor φ ξ (t) = e i<t,x> f(x)dx t R n. R n Kézirat, módosítva: 2006. október 24.

72 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI 2. φ ξ folytonos, korlátos függvény, és φξ 1. 3. Ha létezik az E(ξ l 1 1 ξ l 2 2... ξ ln n ) várható érték, akkor k 1 l 1, k 2 l 2,..., k n l n esetén D k 1 1 D k 2 2... D kn n φ ξ(t) = i k 1+k 2 +...+k n E(ξ k 1 1 ξ k 2 2... ξ kn n ei<t,ξ> ) t R n. 4. Ha ξ karakterisztikus függvénye φ ξ, akkor A R r n és b R r esetén az η = Aξ + b karakterisztikus függvénye φ η (t) = E ( e i<t,aξ+b>) = e i<t,b> φ ξ ( A T t ) t R r. 5. Ha ξ és η v.v.-k független n-dimenziós v.v.v.-k, akkor φ ξ+η (t) = E ( e i<t,ξ+η>) = E ( e i<t,ξ>) E ( e i<t,η>) = φ ξ (t) φ η (t) t R n.. 6. H ξ : Ω R p és η : Ω R q v.v.(v.)-k függetlenek, akkor φ (ξ,η) (t 1, t 2 ) = E ( e i<(t 1,t 2 ),(ξ,η)> ) = E ( e i<t 1,ξ> ) E ( e i<t 1,η> ) = = φ ξ (t 1 ) φ η (t 2 ) t 1 R p t 2 R q. 7. Az egyértelműségi és folytonossági tételeknek megfelelő állítások most is teljesülnek, tehát például a v.v.v. karakterisztikus függvénye és eloszlásfüggvénye most is kölcsönösen meghatározzák egymást. Következmény: A ξ : Ω R p és η : Ω R q v.v.(v.)-k akkor és csak akkor függetlenek, ha φ (ξ,η) (t 1, t 2 ) = φ ξ (t 1 ) φ η (t 2 ) t 1 R p t 2 R q. 7.2. Vektor valószínűségi változó főkomponensei A továbbiakban legyen ξ : Ω R p v.v.v., jelölje várható érték vektorát E(ξ) = m R p, és kovariancia mátrixát cov(ξ, ξ) = V R p p. Jelölje továbbá ξ centráltját ξ = ξ m. A V sjátértékei csökkenő sorba rendezve legyenek: λ 1 λ 2... λ p 0 a megfelelő sajátvektorok ortonormált rendszere pedig legyen: v 1, v 2,..., v p R p, v T i v j = { 1 ha i = j 0 ha i j i, j = 1, 2,..., p. Ekkor teljesülnek: p V = λ i v i vi T és I p = i=1 ahol I p R p p jelöli a p p típusú egységmátrixot. p v i vi T, i=1

7.2. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓ FŐKOMPONENSEI 73 7.4. Definíció. i) A ξ v.v.v. főkomponenseinek nevezzük a skalár valószínűségi változókat. τ i = v T i ξ i = 1, 2,..., p ii) A ξ v.v.v. pozitív sajátértékeihez tartozó főfaktorainak nevezzük a skalár valószínűségi változókat. τ i = 1 λi τ i i = 1, 2,..., p és λ i > 0 A főkomponensek és főfaktorok tulajdonságai: 1. A főkomponensek és főfaktorok centráltak és korrelálatlanok, azaz E(τ i ) = E(τ i ) = 0, cov(τ i, τ j ) = cov(τ i, τ j) = 0 i j = 1, 2,... p továbbá szórásaik: D(τ i ) = λ i i = 1, 2,... p D(τ i ) = 1 i = 1, 2,... p és λ i > 0 2. A ξ v.v.v. felírható főkomponenseivel: p ξ = τ i v i + m illetve főfaktoraival ξ = i=1 p i=1,λ ı>0 τ i w i + m ahol w i = λ i v i ha λ i > 0. Itt a v i illetve w i un. súlyvektorok adnak lehetőséget az egyes faktorok értelmezésére, annak megfelelően, hogy milyen szoros kapcsolat van a ξ v.v.v. egyes komponensei és a különböző főkomponensek ill. főfaktorok között. Ha még ξ komponensei egységnyi szórásúak, a w i súlyvektor egyes kordinátái ξ megfelelő komponense és az i-edik főkomponens ill. főfaktor közötti korrelációs együtthatóval azonos értékű. 3. A ξ v.v.v. közelítése p-nél kevesebb r-dimenziós altérbe történő vetítéssel: r r ξ τ i v i + m illetve ξ τ i w i + m i=1 Ekkor a közelítés hibája: σ 2 r = E ξ m r i=1 ( p ) T ( = E τ i v i i=r+1 2 τ i v i = E p i=r+1 i=1,λ ı>0 p i=r+1 τ i v i ) = E 2 τ i v i = ( p i=r+1 τ 2 i ) = p i=r+1 λ i Kézirat, módosítva: 2006. október 24.

74 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI 4. Az előző közelítést lényegkiemelésnek is nevezzük, igaz ugyanis az alábbi állítás: Legyenek p r N +, u i R p i = 0, 1, 2,..., r vektorok, ψ i : Ω R i = 1, 2,..., r skalár valószínűségi változók, akkor ( ) T r r E ξ ψ i u i u 0 (ξ ) ψ i u i u 0 σ 2 r. (7.1) Bizonyítás. i=1 (a) Alakítsuk a maradékot E r 2 ξ ψ i u i u 0 = E r 2 (ξ m) (ψ i E(ψ i ) u i + i=1 i=1 r 2 u 0 m + E(ψ i ) u i amiből következik, hogy elég a ξ = ξ m centrált v.v.v. közelítésésvel foglalkozni, amikor feltehető E(ψ i ) = 0 i = 1, 2,..., r és u 0 = 0 R p. (b) Ha az u i R p i = 1, 2,..., r vektorok nem lineárisan függetlenek, akkor a maradék egy kevesebb dimenziós közelítés maradéka, tehát feltehető ezen vektorok függetlensége. így az általuk generált altér minden bázisához tartozik egy ugynilyen maradékot adó közelítés, tehát választhatjuk ezeket a vektorokat egy ortonormált bázis vektorainak: { 1 ha i = j < u i, u j >= u T i u j = 0 ha i j. Ekkor azonban ξ -hoz az altérből a merőleges vetülete van legközelebb: E r 2 ξ ψ i u i = i=1 ( ) = E r r 2 ξ < ξ, u i > u i (ψ i < ξ, u i >) u i = i=1 i=1 = E r 2 r ξ < ξ, u i > u i + E ( (ψ i < ξ, u i >) 2) i=1 i=1 i=1 i=1 E ξ r i=1 2 < ξ, u i > u i tehát a ψ ı =< ξ, u i >= ξ T u i i = 1, 2,..., r választás a minimumot adja.

7.3. NORMÁLIS ELOSZLÁSÚ VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓ 75 (c) Tehát elég a maradék minimumát a fenti esetben keresni. Legyenek ahol: u i = [v 1, v 2,..., v p ] c ı c ji =< v j, u i > j = 1, 2,... p c ı = és teljesülnek p c 2 ji = 1 i = 1, 2,..., r, j=1 c 1i c 2i. c pi Rp i = 1, 2,..., r, r c 2 ji 1 j = 1, 2,... p. így a maradék az alábbi alakban írható: E r 2 ξ ψ i u i = E ( ξ T ξ ) r u T i V u i = E ( ξ T ξ ) i=1 i=1 i=1 Vagyis elég megkeresni a p λ j q j ahol q j = j=1 r i=1 c 2 ji r i=1 p λ j c 2 ji. kifejezés maximumát az 1 q j 0 j = 1, 2,... p, p j=1 q j = r, feltételek mellett. írjuk tehát p r r p λ j q j = λ j λ j (1 q j ) + λ j q j j=1 j=1 j=1 r λ j λ r j=1 amit bizonyítani kellett. j=r+1 r (1 q j ) + λ r j=1 p j=r+1 q j = j=1 r λ j, j=1 7.3. Normális eloszlású vektor valószínűségi változó 7.5. Definíció. Legyenek ξ 1, ξ 2,... ξ p N(0, 1) teljesen függetlenek, A R q p mátrix és m R, jelölje továbbá ξ = (ξ 1, ξ 2,... ξ p ),. ekkor az v.v.v. eloszlását q-dimenziós normális eloszlásnak nevezzük. Aξ + m : Ω R q (7.2) Kézirat, módosítva: 2006. október 24.

76 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI Megjegyzések: 1. Ha p = 1 a skalár normális eloszlás definícióját kapjuk, azzal a különbséggel, hogy a konstans is normális eloszlású az utóbbi értelemben. 2. Ha A = I p a p p típusú egység mátrix és m = 0, ξ eloszlását kapjuk, amit p-dimenziós standard normális eloszlásnak, ezért ξ-t standard normális vektornak nevezzük. A standard eloszlás sűrűségfüggvénye a komponensek függetlensége miatt ϕ(x) = 1 e 1 (2π) p 2 xt x 2 x R p, karakterisztikus függvénye pedig φ ξ (t) = E (e i P ) p k=1 t kξ k = e 1 P p 2 k=1 t2 k t R p A normális eloszlás tulajdonságai: 1. Ha η egy q-dimenziós normális eloszlású v.v.v., és B R r q b R r, akkor Bη + b r-dimenziós normális eloszlású v.v.v..tehát normális vektor lineáris transzformáltja normális eloszlású. Következmény: Normális vektor minden pereme is normális eloszlású. 2. Ha ξ p-dimenziós standard normális vektor, és O R q p ortogonális mátrix, azaz OO T = I q, akkor Oξ q-dimenzós standard normális eloszlású. 3. Legyen ξ p-dimenziós standard normális vektor, A R q p, m R p és legyen az η v.v.v. eloszlása olyan mint Aξ + m eloszlása. Ekkor E(η) = m, cov(η, η) = V = AA T és φ η (t) = exp (i < t, m > 12 ) ( < t, V t > = exp it T m 1 ) 2 tt V t t R p. 4. Ha egy η v.v.v. karakterisztikus függvénye ( φ η (t) = exp it T m 1 ) 2 tt V t t R p ahol m R p, V R p p pozitív szemidefinit szimmetrikus mátrix, és jelölje V sajátvektorainak ortonormált rendszerét és a hozzá tartozó sajátrértékeket v 1, v 2,..., v p R p λ 1 λ 2... λ p 0,

7.3. NORMÁLIS ELOSZLÁSÚ VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓ 77 akkor a q = rang(v ) számú pozitív sajátértékhez tartozó főfaktorok a τ k = 1 λk (ξ m) T v k k = 1, 2,..., q τ = (τ 1, τ 2,... τ q) q = rang(v ) standard normális vektor komponensei, mivel karakterisztikus függvénye: τ = A (η m) A = 1 λ1 v T 1. 1 v q T λq Rq p így φ τ (t) = φ η m (A T t) = e 1 2 tt t η = [ λ 1 v 1 λ2 v 2... ] λ q v q t R q. τ 1 τ 2. + m, tehát η eloszlása normális, és cov(η, η) = V, E(η) = m, vagyis η főfaktorai standard normális vektort alkotnak, és η ezek lineáris transzformáltjaként írható. Következmények: 1. Normális v.v.v. mindíg felírható a definícióban szereplő 7.2 alakban, nevezetesen a főfaktorainak lineáris transzformáltjaként. 2. A normális eloszlását egyértelműen meghatározza várható értéke és kovarianci mátrixa, jelölése ezért N (m, V ), ahol m R q és V R q q pozitív szemidefinit szimmetrikus mátrix. Ez a jelölés a skalár normális eloszlás N (m, σ 2 ) jelölésének felel meg, azzal a kiegészítéssel, hogy a konstans v.v. (σ 2 = 0) is normáslis eloszlású a továbbiakban. 3. Ha (ξ, η) egy p + q-dimenziós normális vektor, és cov(ξ, η) = 0 p q R p q, akkor ξ és η függetlenek, mivel a cov(ξ, ξ) R p p V 22 = cov(η, η) R q q m 1 = E(ξ) R p m 2 = E(η) R p τ q jelölésekkel tehát φ ξ+η (t 1, t 2 ) = exp ξ N (m 1, V 11 ) η N (m 2, V 22 ), { i(t T 1 m 1 + t T 2 m 2 ) 1 [ t T 2 1 t T 2 = φ ξ (t 1 ) φ η (t 2 ) ] [ V 11 0 p q 0 q p V 22 ] [ t1 t 2 ]} = Kézirat, módosítva: 2006. október 24.

78 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI 4. Ha rang(v ) = q, akkor η folytonos eloszlású, sűrűségfüggvénye: { 1 f η (x) = exp 1 } (2π) q 2 det(v ) 2 (x m)t V 1 (x m) x R q. (7.3) 5. Ha 0 < rang(v ) = r < q, akkor η egy r-dimenziós peremének lineáris függvényeként kifejezhető η többi komponense, és ezen r-dimenziós perem kovariancia mátrixa invertáható, tehát sűrűségfüggvénye megadható az eredeti V kovariancia mátrix ill. m várható érték vektor megfelelő komponenseiből. 6. Ha egy η q-dimenziós v.v.v. sűrűségfüggvénye 7.3 alakban írrható, ahol E(η) = m, cov(η, η) = V, akkor η q-dimenziós normális eloszlású. 7.4. Feladatok 1. Legyen a (ξ; η) v.v.v. eloszlása: ξ η 1 0 1 1 1 1 1 12 2 1 6 Adja meg a peremeloszlásokat, függetlenek-e ξ és η? Adja meg (ξ; η) kovariancia mátrixát, várható értékét és karakterisztikus függvényét! 2. Legyen X = {X 1, X 2,..., X N } R, és válasszunk ki visszatevés nélkül találomra n számú elemet X elemeiből, és jelölje ξ k a k-adik válsztás eredményét k = 1, 2,..., n. Adjuk meg a ξ = (ξ 1, ξ 2,..., ξ n ) v.v.v. várható értékét és kovariancia mátrixát! 3. Írjuk fel a ν = (ν 1, ν 2,..., ν r ) polinomiális eloszlású v.v.v. kovariancia mátrixát! Ellenőrízzük, hogy cov(ν, ν)1 = 0, mivel ν T 1 = r i=1 ν ı = n. írjuk fel ν karakterisztikus függvényét! 4. Legyenek ξ, η N (0, 1) függetlenek, és 12 1 3 6 1 6 ξ 1 = 2ξ + η ξ 2 = ξ + 2η írjuk fel (ξ 1, ξ 2 ) kovariancia mátrixát, ellenőrizzük, hogy pozitív definit! Adjuk meg a ξ 1 aξ 2 + b és ξ 2 a ξ 1 + b regressziós közelítéseket, és maradék szórásaikat! írjuk fel (ξ 1, ξ 2 ) karakterisztikus függvényét! 5. A 4. feladat kapcsán adja meg a kovariancia mátrix sajátvektorait, számítsa ki a legjobb egy-dimenziós vetület hibáját! Irja fel a főfaktor súlyok mátrixát, és a faktoroknak a komponesekkel való korrelációs együtthatóit!

7.4. FELADATOK 79 6. A ξ = (ξ 1, ξ 2 ) v.v.v. kovariancia mátrixa és várható érték vektora: [ cov(ξ, ξ) = 7 ] 3 3 5 M(ξ) = (a) Határozza meg a nagyobbik sajátértékhez tartozó főkomponensek egyenesét! (b) Adja meg az (1+2 3; 4) megfigyelt ponthoz tartozó főkomponensek és főfaktorok értékeit! 7. Legyenek τ 1 U(0; 1), τ 2 N (1; 2) függetlenek, és jelölje ξ = τ 2 2 τ 1 η = τ 2. Adjuk meg (ξ; η) kovariancia mátrixát, és a legjobb egydimenziós vetítés egyenesét! 8. Legyen (ξ, η) 2-dimenziós normális vektor, és E(ξ) = m 1, E(η) = m 2, D 2 (ξ) = σ 2 1, D2 (η) = σ 2 2, cov(ξ, η) = σ 12 és σ 2 1 σ2 2 σ 12 > 0. Irjuk fel a kétdimenziós sűrűségfüggvényt! Ellenőrizzük, hogy a korrelálatlanságból következik a két komponens függetlensége! [ 1 2 ] 9. Legyen a (ξ, η) v.v.v. sűrűségfüggvénye: f(x, y) = c exp ( x 2 + ) 2xy y 2 (x, y) R 2. Számítsa ki ξ és η korrelációs együtthatóját! Kézirat, módosítva: 2006. október 24.

80 7. FEJEZET. VEKTOR VALÓSZÍNŰSÉGI VÁLTOZÓK JELLEMZŐI

8. fejezet Nevezetes eloszlások A következő eloszlások a normális eloszlásból származtathatók, és nevezetes felhasználási területük a matematikai statisztika. 8.1. χ 2 eloszlás 8.1. Definíció. Legyen ξ = (ξ 1, ξ 2,..., ξ n ) standard normális vektor, az η = n i=1 ξ 2 i valószínűségi változó eloszlását n-szabadsági fokú χ 2 eloszlásnak nevezzük, jelölése: Megjegyzések: η χ 2 n. 1. A χ 2 n eloszlás folytonos, sűrűségfüggvénye megadható: x n 2 1 e x 2 f n (x) = 2 n 2 Γ( n ) ha x > 0 2 0 ha x 0 ahol Γ(t) = + 0 u t 1 e u du t > 0. 2. A χ 2 2 eloszlás azonos az Exp ( 1 2) eloszlással (lásd 1. feladat). 3. Ha n elég nagy (n > 80, 100,...), a χ 2 n eloszlás közel normális lesz a centrális határeloszlás tétel miatt. 4. Az eloszlás különböző α ]0; 1[ és n N + értékekhez tartozó un. χ 2 α kritikus értékei, melyekre P ( η > χα) 2 = α ha η χ 2 n, táblázatból nyerhetők (lásd B. függelék). 81

82 8. FEJEZET. NEVEZETES ELOSZLÁSOK A χ 2 eloszlás tulajdonságai: 1. Addíciós tulajdonság. Legyenek η 1 χ 2 n 1 és η 2 χ 2 n 2 függetlenek, akkor η 1 + η 2 χ 2 n 1 +n 2. Bizonyítás. Definícó alapján nyilvánvaló. 2. A χ 2 eloszlás várható értéke és szórása: Ha η χ 2 n, akkor E(η) = n D(η) = 2n. Bizonyítás. Ha ξ N 0; 1), akkor E(ξ 2 ) = 1 és E(ξ 4 ) = 3, amiből következik az állítás. Következmény: Ha n elég nagy, akkor χ 2 n N (n, 2n), továbbá ε > 0 esetén ( lim P η ) n n 1 > ε = 0. 3. A χ 2 eloszlás mint négyzetösszeg eloszlása. Legyen a Q R n n szimmetrikus mátrix rangja r 1 és teljesüljön QQ = Q. a) Ha ξ N (m, σ 2 I), ahol m R n, σ > 0 és I R n n az egységmátrix, akkor teljesülnek az alábbi állítások: i) ξ T Qξ = (Qξ) T (Qξ); ii) 1 σ 2 ξ T Qξ χ 2 r m T Qm = 0 Qm = 0 R n. iii) E(ξ T Qξ) = rσ 2 + m T Qm; b) Ha η N (0, σ 2 Q), akkor 1 σ 2 η T η χ 2 r. Bizonyítás. Ha v egység hosszúságú sajátvektora Q-nak, akkor Qv = λv és (Qv) T Qv = λ 2 = λ, tehát Q sajátértéke csak 0 vagy 1 lehet, de akkor pontosan r-számú 1 és a többi 0. i) Nyilvánvaló. ii)-iii) Legyen tehát Q = r i=1 v ivi T ahol (v i ) r i=1 Rn ortonormált vektorrendszer, akkor 1 r ( ) 2 σ 2 ξt Qξ = vi T ξ m + 2 σ σ 2 ξt Qm 1 σ 2 mt Qm ξ m ξ m i=1 ahol v1 T,... σ vt r korrelálatlan, tehát független standard normális eloszlású v.v.-k. Ebből várható értéket számolva kapjuk iii)-t, és következik az σ állítás, figyelmbe véve, hogy m T Qm = 0 Qm = 0.

2 8.1. χ ELOSZLÁS 83 A b) állítás a ii) következménye, ha m = 0, és η = Qξ. Megjegyzés: Az i) és iii) állítások tetszőleges n-dimenziós ξ v.v.v. esetén is teljesülnek. 4. A χ 2 eloszlás partíciós tulajdonsága (Fisher-Cochran tétel). Legyenek a Q 1, Q 2,..., Q k R n n szimmetrikus mátrixok rangjai az r 1, r 2,..., r k pozitív egészek, és teljesüljön: I = Q 1 + Q 2 +... + Q k (8.1) ahol I R n n az egységmátrix, legyen továbbá ξ N (m, σ 2 I) normális eloszlású vektor valószínűségi változó. Ekkor az a)-d) feltételek ekvivalensek: (a) n r 1 + r 2 +... + r k ; (b) n = r 1 + r 2 +... + r k ; (c) Q i Q i = Q i i = 1, 2,... k; (d) Q i Q j = 0 R n n ha i j = 1, 2,... k; és bármelyikből következnek az alábbiak: (e) ξ T Q i ξ = (Q i ξ) T (Q i ξ) i = 1, 2,... k; négyzetösszegek, és ξ T ξ = i ξt Q i ξ (f) Q i ξ i = 1, 2,... k illetve ξ T Q i ξ i = 1, 2,... k függetlenek; (g) 1 σ 2 ξ T Q i ξ χ 2 r i m T Q i m = 0 i = 1, 2,..., k; Bizonyítás. Előbb az a)-d) feltételek ekvivalenciáját bizonyítjuk. a b Mivel x = Q 1 x + Q 2 x +... + Q k x, R n minden vektora, például egy bázisa, előáll legfeljebb r 1 +r 2 +...+r k számú vektor lineáris kombinációjaként, tehát n r 1 + r 2 +... + r k, amiből következik az állítás. b c Ha n = r 1 +r 2 +...+r k, akkor Q 1,..., Q k r 1 +r 2 +...+r k számú oszlopvektora bázis. Ha. q a Q 1 ezen bázishoz tartozó oszlopvektora, vagyis az r 1 számú lineárisan független oszlopvektor egyike, akkor az egyértelmű előállítás és q = Q 1 q + Q 2 q +... + Q k q miatt Q 1 q = q kell hogy teljesüljön. Ha p a Q 1 olyan oszlopvektora, amely az r 1 számú független oszlopvektor lineáris kombinációja, akkor is Q 1 p = p. Tehát Q 1 Q 1 = Q 1, és hasonlóan Q i Q i = Q i i = 1, 2,..., k. Kézirat, módosítva: 2006. október 24.

84 8. FEJEZET. NEVEZETES ELOSZLÁSOK c d c) miatt x T Q i x = (Q i x) T (Q i x) 0 x R n i = 1, 2,... k. Ha q a Q 1 egy oszlopvektora, akkor q T q = q T q + q T Q 2 q +... + q T Q k q q T Q i q = (Q i q) T (Q i q) 0 i = 2, 3,... k amiből következik Q i q = 0 R n, vagyis Q i Q 1 = 0 R n n hasonlóan Q i Q j = 0 R n n i j = 1, 2,... k; d a Szorozzuk (8.1) mindkét oldalát pl. Q 1 -el, kapjuk i = 2, 3,... k, és Q 1 = Q 1 Q 1 tehát teljesül c) is. Tegyük fel, hogy n < r 1 + r 2 +... + r k, akkor a zérusvektor kifejezhető úgy, hogy 0 = Q 1 x 1 +... + Q k x k ahol az x i kombináló vektoroknak az r i számún kívüli, nem független vektorokhoz tartozó kordinátái nullák, és van közöttük nem zérusvektor, pl.x 1 Ekkor Q 1 -el balról szorozva kapjuk 0 =Q 1 x 1 ami nem teljesülhet, mert Q 1 lineárisan független vektoraiból csak triviális módon kombinálható ki a zérusvektor. Tehát az n < r 1 + r 2 +... + r k indirekt feltétel nem teljesülhet, vagyis n r 1 + r 2 +... + r k. Az e)-g) állítások következnek az a)-d) feltételekből és a 3. tulajdonságból. Megjegyzés: A partíciós tulajdonság annak feltételét adja, hogy a ξ T ξ = ξ T Q 1 ξ + ξ T Q 2 ξ +... + ξ T Q k ξ négyzetösszeg felbontásának tagjai mikor lesznek független négyzetösszegek, és ezek pontosan akkor χ 2 r i eloszlásúak, ha várható értékük ennek megfelelő, mivel az g)-ben szereplő m T Q i m = 0 feltétel és E( 1 σ 2 ξ T Q i ξ) = r i ekvivalensek. 8.2. Következmény. Legyenek a ξ 1, ξ 2,... ξ n N (m, σ) skalár valószínűségi változók függetlenek, akkor 1 n ξ = ξ n i és s 2 = 1 n ( ξi n 1 ξ ) 2 (8.2) függetlenek, továbbá ξ N i=1 ( ) σ m, n és i=1 n 1 σ 2 s 2 χ 2 n 1. (8.3)

2 8.1. χ ELOSZLÁS 85 Bizonyítás. Jelölje Q 1 = 1 n 1 n. 1 n 1 1 n n 1 1 n n..... 1 1 n n Rn n r 1 = rang(q 1 ) = 1 Q 2 = 1 1 1 1 n n n 1 1 1 1 n n n...... 1 1 1 1 n n n Rn n r 2 = rang(q 2 ) n 1 mivel Q 2 1 = 0 R n 1 T = [ 1 1 1 ] szimmetrikus mátrixokat és ξ N (m 1, σ 2 I), amivel teljesül Tehát és függetlenek, és ezért I =Q 1 + Q 2 és n r 1 + r 2. n = r 1 + r 2 r 2 = n 1 ξ Q 1 ξ = ξ. Q 2ξ = ξ ξ és ξ T Q 2 ξ = ξ 1 ξ ξ 2 ξ. ξ n ξ n ( ξi ξ ) 2 függetlenek, de akkor ξ és s 2 is független. Továbbá nyilvánvalóan teljesül ( ) σ ξ N m,, n i=1 és Q 2 (m 1) = 0 n miatt n 1 σ 2 s 2 χ 2 n 1. 8.3. Következmény. Legyen ν 1, ν 2,..., ν r n-edrendű p 1, p 2,..., p r paraméterű polinomiális eloszlású, akkor nagy n (np k > 10) esetén a r (ν k np k ) 2 k=1 valószínűségi változó eloszlása közel χ 2 r 1. np k (8.4) Kézirat, módosítva: 2006. október 24.

86 8. FEJEZET. NEVEZETES ELOSZLÁSOK Bizonyítás. A központi határeloszlás tétel miatt a ν = (ν 1, ν 2,..., ν r ) eloszlása közelítően normális, tehát feltehetjük (használjuk a 78. oldal 3. feladat eredményét) p 1 p 1 (1 p 1 ) p 1 p 2 p 1 p r ν N n p 2., n p 2 p 1 p 2 (1 p 2 ) p 2 p r...... p r p r p 1 p r p 2 p r (1 p r ) és így ahol p = p 1 p 2. p r ν = p = 1 np1 0 0 0 1 np2....... 0 0 p1 p2. pr 1 npr Tehát Q R r r szimmetrikus mátrix, és ( p ) T I =Q + p (ν n p) N (0, Q) 1 p 1 p 1 p 2 p 1 p r Q = p 2 p 1 1 p 2 p 2 p r...... p r p 1. p r p 2 1 p r Q p = 0 R r ezért Q ( p p T ) = 0 r r, tehát következnek QQ = Q rang(q) = r rang ( p p T ) = r 1, továbbá a χ 2 eloszlás 3.b) négyzetösszeg tulajdonsága miatt r ν T ν (ν k np k ) 2 = χ 2 r 1. np k k=1 8.2. T és F-eloszlás 8.4. Definíció. i) Legyenek ξ N (0; 1) és η χ 2 n valószínűségi változók függetlenek, a t = ξ η n v.v. eloszlását n-szabadsági fokú T eloszlásnak nevezzük, jelölése: t T n.

8.2. T ÉS F-ELOSZLÁS 87 ii) Legyenek η 1 χ 2 n 1, η 2 χ 2 n 2 valószínűségi változók függetlenek, az f = η 1 η 2 n2 n 1 v.v. eloszlását (n 1, n 2 )-szabadsági fokú F-eloszlásnak nevezzük, jelölése f F n1,n 2. Megjegyzés: A T és F eloszlás folytonos, sűrűségfüggvényük megadható, tulajdonságaik egyszerűen következnek a definícióból és a χ 2 eloszlás tulajdonságaiból. A T és F eloszlás tulajdonságai: 1. A T -eloszlás szimmetrikus az x = 0 -ra, vagyis ha t T n akkor t T n. 2. Ha n elég nagy (n > 120) és t T n akkor t eloszlása közel N (0, 1). 3. Az eloszlás különböző α ]0; 1[ és n N + értékekhez tartozó un. t α kritikus értékei, melyekre P ( η > t α ) = α ha η T n, táblázatból nyerhetők (lásd B. függelék). Az n = jelenti a standard normális eloszlásra vonatkozó u α -val jelölt kritikus értékeket. 4. Ha f F n1,n 2 akkor 1 f F n 2,n 1. 5. Ha f F n1,n 2 és n 2 elég nagy (n > 80, 120) n 1 f eloszlása közel χ 2 n 1. 6. Az eloszlás különböző α ]0; 1[ és n 1, n 2 N + értékekhez tartozó un. f α kritikus érték ei, melyekre P (η > f α ) = α ha η F n1,n 2, táblázatból nyerhetők (lásd B. függelék). A táblázatok a kis α = 0.1, 0.05, értékez tartozó felső f α kritikus értéket szolgáltatják, az alsó f 1 α kritikus értéket, melyre kapjuk az P (η > f 1 α ) = 1 α ha η F n1,n 2 P ( 1 η > 1 ) = α 1 f 1 α η F n 2,n 1 összefügés szerint, mint a fordított szabadsági fok-párhoz tartozó felső kritikus érték reciprokát. Kézirat, módosítva: 2006. október 24.

88 8. FEJEZET. NEVEZETES ELOSZLÁSOK 8.3. Feladatok 1. Adjuk meg a χ 2 1 és χ2 2 eloszlások sűrűségfüggvényét! 2. Adjuk meg a χ 2 n eloszlás karakterisztikus függvényét! 3. Adjuk meg a (8.2)-ben szereplő s 2, valamint s 2 = n 1 n s 2 valószínűségi változók várható értékét, szórását! 4. Legyen ξ N (m, V ) n-dimenziós folytonos normális eloszlású, és keressünk olyan k R számot, hogy teljesüljön! 5. Legyen ξ N (m, σ 2 Q) ahol P ( (ξ m) T V 1 (ξ m) k ) = 1 α m R n 1 Q R n n Q = Q T Q Q = Q rang(q) 1 σ > 0. Mutassuk meg, hogy az η = 1 σ 2 ξt Qξ valószínűségi változó eloszlása meghatározott az r = rang(q) ranggal, és a λ = 1 m T Qm un. nemcentráltsági paraméterrel (η eloszlása az un. nemcentrált χ 2 σ 2 eloszlás). 6. Három egyenként 100 óra várható élettartamú (exponenciális eloszlású) izzót egymás után felhasználva, (a) milyen időtartamnál lesz több az össz-élettartam 0.9 valószínűséggel? (b) milyen határok között lesz az átlagélettartam 0.9 valószínűséggel? (c) milyen határok között lesz 30 izzó átlagélettartama 0.95 valószínűséggel? 7. Egy 100 óra várható élettartamú alkatrész élettartamánál hányszor több egy 800 órás várható élettartamú alkatrész élettartama 0.95 valószínűséggel? Tegyük fel, hogy az alkatrészek élettartama független exponenciális eloszlású!

9. fejezet Regresszió analízis A ξ és η (vektor-) valószínűségi változókhoz keressük azt az f un. regressziós függvényt, mellyel az η f(ξ) közelítés a legjobb. Hogy mi a legjobb közelítés, az függ a választott célfüggvénytől, és a szóba jöhető regressziós függvények halmazától. Egy ilyen célfüggvény, melynek minimumát keressük, lehet az E ( η f(ξ) 2) u.n. maradék szórásnégyzet, vagy az E ( η f(ξ) ) abszolut eltérés várható értéke. Ha az f függvényt speciális formában keressük, beszélhetünk ennek megfelelően η Aξ + b η a 0 + a 1 ξ + a 2 ξ 2 + + a p ξ p η e Aξ+b. lineáris polinomiális exponenciális regressziós feledatról. Mivel a legtöbb (elegendően sima) függvény jól közelíthető lineáris függvénnyel (esetleg értelmezési tartományának megfelelő leszűkítésével), illetve más esetekben új komponensek bevezetésével (pl. polinom függvények), vagy egyszerű transzformációval (pl. exponenciális függvények) a kitűzött feladat lineáris regresszós függvény keresését jelenti. 9.1. Többváltozós lineáris regresszió. Feladat: Legyen η q-dimenziós és ξ p-dimenziós vektor valószínűségi változó. Keressük az η un. függő változó legjobb lineáris közelítését a ξ un. független változóval, azaz keressük az A R q p mátrixot és b R q vektort 89

90 9. FEJEZET. REGRESSZIÓ ANALÍZIS úgy, hogy az η Aξ + b közelítés σ 2 R = E ( η Aξ b) 2) hibája, az un. maradék szórásnégyzet, minimális legyen! Megjegyzések: 1. Jelölje η = (η 1, η 2,..., η q ) ξ = (ξ 1, ξ 2,..., ξ p ), továbbá a T 1 a T A = 2. ahol a i R p és b = (b 1, b 2,..., b q ) R q. Mivel a maradék szórásnégyzet az alábbi összegre bontható q σ 2 R = E ( (η i a T i ξ b i ) 2), elég a q = 1 esetben megoldani a szélsőérték feladatot. i=1 2. Feltételezhetjük, hogy ξ komponensei között nincs lineáris összefüggés, azaz cov(ξ, ξ) R p p invertálható. Megoldás: q = 1 eset. Legyen η skalár v.v., és keressük azt az a R p vektort valamint b R számot melyekre minimális. Átalakítva kapjuk: amiből kapjuk az a T q σ 2 R = E ( (η a T ξ b) 2) σ 2 R = cov(η, η) 2 cov(η, ξ)a + a T cov(ξ, ξ)a + ( E(η) a T E(ξ) b ) 2 a T = cov(η, ξ) cov(ξ, ξ) 1 b = E(η) a T E(ξ) minimum helyet, és ezzel a minimum értékét. σ 2 R = cov(η, η) cov(η, ξ) cov(ξ, ξ) 1 cov(η, ξ) T

9.1. TÖBBVÁLTOZÓS LINEÁRIS REGRESSZIÓ 91 q > 1 eset. Vezessük be az alábbi jelöléseket: m 1 = E(η) R q m 2 = E(ξ) R p V 12 = cov(η, ξ) R q p V 11 = cov(η, η) R q q V 21 = cov(ξ, η) R p q V 22 = cov(ξ, ξ) R p p ekkor a fenti eredményből kapjuk a lineáris regressziós feledat megoldását A = V 12 V 1 22 b = m 1 Am 2. és a maradék szórásnégyzet minimális σ 2 R = tr ( V 11 V 12 V22 1 V ) 21 értékét, ahol tr( ) a négyzetes mátrix főátlójában lévő elemek összegét jelenti. Vizsgáljuk a továbbiakban az η = η + η felbontást, ahol η = Aξ + b η = η Aξ b a ξ-vel közelített rész; a maradék; Itt, és a továbbiakban A és b a fenti szélsőérték feladat megoldását jelöli. A két rész tulajdoságai a következők: 1. E(η ) = m 1, E(η ) = 0 R q. 2. cov(ξ, η ) = 0 R p q, cov(η, η ) = 0 R q q, tehát a ξ-vel leírt rész és a maradék korrelálatlan, normális eloszlás esetén független. 3. V R = cov(η, η ) = V 11 V 12 V 1 22 V 21 az un. maradék kovariancia mátrix, melynek főátlójában lévő elemeket összeadva kapjuk a maradék szórásnégyzetet: σ 2 R = tr (V R). Ezen maradék kovariancia mátrixból számítható η i j komponensei közti olyan összefüggés mértéke, mely ξ hatásától mentes, másképpen fogalmazva, η komponensei közti tiszta kapcsolat mértéke. Ezt nevezzük az η i és η j közti, ξ-re vonatkozó parciális korrelációs együtthatónak. Jelölése: ρ ηi η j ξ. 4. Ha q = 1, a maradék kovariancia mátrix 1 1 típusú, σ 2 R = D2 (η) V 12 V22 1 V 21. Feltéve, hogy η szórása sem nulla, a regressziós kapcsolat szorosságát jelzi az η és η közti korrelációs együttható, amit az η v.v. ξ-re vonatkozó többszörös korrelációs együtthatójának nevezünk. Jelölése, és kiszámítása a fentiek alapján: ρ η ξ = V12 V 1 22 V 21 D(η) = 1 σ2 R D 2 (η) (9.1) Kézirat, módosítva: 2006. október 24.

92 9. FEJEZET. REGRESSZIÓ ANALÍZIS ennek négyzete az un. determinációs együttható, amivel a maradék szórásnégyzet σ 2 R = D2 (η) ( ) 1 ρ 2 η ξ kifejezhető. Mindezekből egyszerűen következnek: ρ η ξ = 1 σ 2 R = 0; ρ η ξ = 0 cov(η, ξ) = 0 R p a = 0 R p ; (9.2) továbbá, ha p = 1, és r jelöli a ξ és η változó 4.3 szerinti korrelációs együtthatóját, akkor ρ η ξ = r. (9.3) A lineáris regressziós feladat egyben megoldását adja a következő nevezetes problémának is. Feladat (Legkisebb négyzetek módszere): Az (y k, x k1, x k2,..., x kp ) R 1+p k = 1, 2,..., n pontokhoz keressük az együtthatókat úgy, hogy a a 0, a 1,..., a p R n [y k (a 0 + a 1 x k1 + a 2 x k2 + + a p x kp )] 2 (9.4) k=1 négyzetösszeg minimális legyen! Megoldás: Legyen az (η, ξ 1, ξ 2,..., ξ p ) : Ω R 1+p vektor valószínűségi változó eloszlása P (η = y k, ξ 1 = x k1, ξ 2 = x k2,..., ξ p = x kp ) = 1 n k = 1, 2,..., n, akkor a 9.4 négyzetösszeg minimumát az regressziós feladat megoldásaként kapjuk. Ha még p = 1, 4.4 szerint kapjuk a 1 = η a 0 + a 1 ξ 1 + a 2 ξ 2 + + a p ξ p 1 ( xk y n k xȳ 1 1 a n x 2 k x 2 0 = ȳ a 1 x σ 2 R = ) y 2 n k ȳ 2 ( 1 xk y n k xȳ ) 2 1. (9.5) n x 2 k x 2

9.2. ELMÉLETI REGRESSZIÓ, FELTÉTELES VÁRHATÓ ÉRTÉK 93 9.2. Elméleti regresszió, feltételes várható érték A lineáris regressziós feladatban a függő változót a független változó lineáris függvényével közelítettük. Keressük most a legjobban közelítő függvényt nem csak a lineáris függvények körében, és ha van ilyen, azt a legjobb, vagy elméleti regressziós függvénynek is nevezzük. A következő gondolatmenetben vázoljuk a pontos megfogalmazás igénye nélkül a feladat megoldhatóságával kapcsolatos fogalmakat (lásd: A. függelék). A továbbiakban tehát fontos szerepet töltenek be azon q-dimenziós, illetve skalár valószínűségi változók, melyek komponensei négyzetesen integrálhatók, jelölje ezeket L 2, ahol külön nem jelöljük a dimenziót. Ekkor L 2 teljes vektorháló a < ξ, η > L2 = E (< ξ, η >) ξ, η L 2 skaláris szorzatból származtatható alábbi félnormával: ξ = E ( ξ 2) = E (< ξ, ξ >) ξ L 2. Használjuk továbbá az un. mérhető függvények fogalmát, vagyis azon f : R p R q függvényeket, melyekre teljesül I R q intervallum esetén f 1 (I) σ {J J R p intervallum}. Ilyen függvények és vektor valószínűségi változók f ξ összetételéből mindíg valószínűségi változót kapunk, és ha azokat választjuk melyekre f ξ 2 -nak van várható értéke, az R p R q típusú függvények egy teljes vektorhálóját kapjuk az f = E ( f ξ 2) félnormával. A továbbiakban szereplő függvények mindíg ilyenek lesznek, ezért azt külön nem említjük a feltételek között, és az említett teljesség miatt, a kitűzött feladatnak mindíg van megoldása, amit a legfontosabb esetekben meg is adunk. 9.1. Definíció. Az η L 2 q-dimenziós (vektor-) valószínűségi változó ξ : Ω R p (v.)v.v.-ra vonatkozó feltételes várható értékének nevezzük a függvényt, illetve a H : R p R q H ξ : Ω R q valószínűségi változót, melyre minden h : R p R q függvény esetén: Jelölése: illetve E ( η H ξ 2) E ( η h ξ 2). E(η ξ =.) = H vagy E(η ξ = x) = H(x) /x R p / E(η ξ) = H ξ. Kézirat, módosítva: 2006. október 24.

94 9. FEJEZET. REGRESSZIÓ ANALÍZIS Megjegyzések: 1. A későbbiekben szereplő η vektor valószínűségi változók mindíg L 2 -beliek lesznek, és a korábbi R p R q típusú fügvényekkel kapcsolatos megjegyzésünk szerint mindíg léteznek majd a szereplő várható értékek. 2. A feltételes várható értéken tehát vagy egy E(η ξ = x) = H(x) /x R p / függvényt (elméleti regressziós függvény), vagy egy E(η ξ) = H(ξ) valószínűségi változót (regressziós közelítés) értünk, ami a fenti értelemben legjobban közelíti az η függő változót. 3. Vektor v.v. komponensének feltételes várható értéke a feltételes várható érték megfelelő komponense, mivel: E ( η H ξ 2) = q E ( η i H i ξ 2) i=1 ahol η = (η 1, η 2,... η q ) és H = (H 1, H 2,..., H q ). Ebből következik, hogy a feltételes várható érték tulajdonságait, kiszámítási módjait elég a q = 1 esetben vizsgálni. 4. A feltételes v.é. ξ-szerint 1-valószínűséggel meghatározott. Ha ugyanis P (E(η ξ) = H ξ) = 1, akkor H is rendelkezik a definicióban leírt minimum tulajdonsággal. Késöbb azt is látni fogjuk, hogy bármely, a minimum tulajdoságot teljesítő H és H esetén P (H ξ = H ξ) = 1. Ezért egy feltételes várható értéket meghatározó E(η ξ =.) függvényt elég megadni ξ értékkészletének 1-valószínűségű részén. A feltételes várható érték tulajdonságai: 1. A feltételes v.é. várható értéke a feltétel nélküli várható érték: Legyenek η : Ω R q, ξ : Ω R p (v.)v.v.-k, akkor E (E(η ξ)) = E(η). Bizonyítás. Legyen q = 1, és jelölje m = E(η) E (E(η ξ)), akkor a várható érték minimum tulajdonsága miatt E ( [η E(η ξ)] 2) E ( [η E(η ξ) m] 2), ahol a feltételes várható érték minimum tulajdosága miatt csak egyenlőség lehet, ami pontosan akkor teljesül, ha m = 0.

9.2. ELMÉLETI REGRESSZIÓ, FELTÉTELES VÁRHATÓ ÉRTÉK 95 2. A feltételes várható érték mint ortogonális vetület: Legyenek η : Ω R q, ξ : Ω R p (v.)v.v.-k, a H : R p R q függvényre H = E(η ξ =.) ha h : R p R q esetén E ( (η H ξ) T h ξ ) = 0. Bizonyítás. Tegyük fel most, hogy h : R p R q esetén E ( (η H ξ) T h ξ ) = 0. Ekkor E ( (η E(η ξ)) 2) = E ( ((η H ξ) + (H ξ E(η ξ))) 2) = E ( (η H ξ) 2) + E ( (H ξ E(η ξ)) 2) amiből következik E ((E(η ξ) H ξ) 2 ) = 0, vagyis P (E(η ξ) = H ξ) = 1. Legyen q = 1, és tegyük fel, hogy H = E(η ξ =.) és h : R p R olyan, hogy E ((η H ξ) h ξ) 0. Jelölje τ = η H ξ, és vizsgáljuk a τ a h ξ + b lineáris regressziós feladatot. A maradék szórásnégyzetre ekkor kapjuk: amiből r 0 miatt következik σ 2 R = σ2 τ (1 r 2), σ 2 R = E ( (η H ξ a h ξ b) 2) < σ 2 τ = E ( (η H ξ) 2) ami nem teljesülhet ha H a feltételes várható érték. Következmények: (a) A bizonyításból következik az a korábbi megjegyzés is, mely szerint a mininumfeladat bármely két megoldása 1-valószínűséggel megegyezik. (b) Ha (ξ, η) együttes eloszlása normális, akkor a lineáris regresszós függvény egyben a feltételes várható érték, mivel az η Aξ b maradék és ξ (vagy h ξ) ekkor függetlenek, de akkor Megjegyzés: E ( (η Aξ b) T h ξ ) = 0. (a) Az állításban szereplő h : R p R q mérhető függvények helyett elég a q = 1 eset, és a h = 1 I I R p intervallum alakú függvény tetszőleges választása.. Kézirat, módosítva: 2006. október 24.

96 9. FEJEZET. REGRESSZIÓ ANALÍZIS (b) Az ortogonalitás az E (η h ξ) illetve E (E(η ξ) h ξ) várható értékek egyenlőségével ekvivalens, és itt a művelet nem csak skaláris szorzás lehet, hanem vektor skalárral való szorzása is, mivel a feltételes várható érték komponensei a feltételes várható érték megfelelő komponensei. 3. Homogén: Legyenek η : Ω R q, ξ : Ω R p (v.)v.v.-k, ϕ : R p R, akkor E (ϕ ξ η ξ) = ϕ ξ E (η ξ) Bizonyítás. Legyen q = 1, és ellenőrízzük az ortogonalitást: E ((ϕ ξ η ϕ ξ E (η ξ)) h ξ) = E ((η E (η ξ)) ϕ ξ h ξ) = 0. 4. Additív: Legyenek η 1, η 2 : Ω R q, ξ : Ω R p (v.)v.v.-k, akkor E(η 1 + η 2 ξ) = E(η 1 ξ) + E(η 2 ξ) Bizonyítás. Legyen q = 1, és az ortogonalitás ellenőrzéséhez számoljuk ki a E ((η 1 + η 2 ) h ξ) = E (η 1 h ξ) + E (η 2 h ξ) E ((E(η 1 ξ) + E(η 2 ξ)) h ξ) = E (E(η 1 ξ) h ξ) + E (E(η 2 ξ) h ξ) várható értékeket. 5. Nemnegatív: Legyenek η 0, ξ : Ω R p (v.)v.v.-k, akkor P (E(η ξ) 0) = 1. Bizonyítás. Mivel (η E(η ξ)) 2 (η max {0; E(η ξ)}) 2, következik az állítás. Következmény: Ha η 1 η 2 ξ : Ω R p (v.)v.v.-k, akkor P (E(η 1 ξ) E(η 2 ξ)) = 1. 6. Független v.v.-k feltételes várható értéke: Legyenek η : Ω R q, ξ : Ω R p (v.)v.v.-k függetlenek, akkor E(η ξ) = E(η). Bizonyítás. Ellenőrízzük az ortogonalitást a q = 1 esetben: E (η h ξ) = E(η) E(h ξ) = E (E(η) E(h ξ))

9.2. ELMÉLETI REGRESSZIÓ, FELTÉTELES VÁRHATÓ ÉRTÉK 97 7. Folytonosság: (a) Legyenek 0 η 1 η 2 η n η Ω R, ξ : Ω R p (v.)v.v.-k és lim n η n = η, akkor lim E (η n ξ) = E (η ξ) n (b) Legyenek η 1, η 2,, η n,, η Ω R, ξ : Ω R p (v.)v.v.-k és lim n η n = η, továbbá legyen ζ Ω R olyan négyzetesen integrálható v.v., melyre η n ζ, akkor lim n E (η n ξ) = E (η ξ) Bizonyítás. Mindkét állítás következik az ortogonalitás ellenőrzéséből, felhasználva a várható érték folytonosságát. Következmények: 1. Ha ϕ = c R állandó, akkor E (c η ξ) = c E (η ξ). Bizonyítás. A ϕ = c konstans függvény választásával, a homogén tulajdonságból következik az állítás. 2. A közelítés maradékának kovariancia mátrixa az alábbi módon számolható: V R = cov (η E(η ξ), η E(η ξ)) = E(ηη T ) E ( E(η ξ)e(η ξ) T ) = Bizonyítás. Az ortogonalitás miatt = cov(η, η) cov (E(η ξ), E(η ξ)) E ( (η E(η ξ)) E(η ξ) T ) = 0 továbbá a homogenitást felhasználva, és a feltételes várható érték várható értékét véve E ( E(η ξ)η T ) = E [ E ( E(η ξ)η T ξ )] = E [ E(η ξ)e ( η T ξ )] kapjuk: V R = E ( (η E(η ξ)) (η E(η ξ)) T ) = = E ( (η E(η ξ)) η T ) E ( (η E(η ξ)) E(η ξ) T ) = = E(ηη T ) E ( E(η ξ)η T ) = E(ηη T ) E ( E(η ξ)e(η ξ) T ) = = [ E(ηη T ) E(η)E T (η) ] [ E ( E(η ξ)e(η ξ) T ) E(η)E T (η) ]. Kézirat, módosítva: 2006. október 24.

98 9. FEJEZET. REGRESSZIÓ ANALÍZIS 3. Ha η, ξ 1, ξ 2 (v.)v.v.-k, akkor E (E(η ξ 1, ξ 2 ) ξ 1 ) = E(η ξ 1 ). Bizonyítás. Ellenőrízzük az ortogonalitást: E [(E(η ξ 1, ξ 2 ) E(η ξ 1 )) h(ξ 1 )] = = E [(η E(η ξ 1 )) h(ξ 1 )] E [(η E(η ξ 1, ξ 2 )) h(ξ 1 )] = 0. 4. Ha ξ, η független r illetve s dimenziós vektor valószínűségi változók, továbbá g : R r+s R (mérhető) függvény, akkor E (g(ξ, η) ξ = x) = E (g(x, η)) x R r. Bizonyítás. Ellenőrízzük az ortogonalitást, számítsuk ki a várható értékeket a generált mértékterekben. Mivel E (g(x, η)) = g(x, y)dp η (y), R s kapjuk E [E (g(, η)) (ξ) h(ξ)] = g(x, y)dp η (y) h(x)dp ξ (x), R r R s és a függetlenség miatt a szorzatmérték szerinti integrált számolva (lásd: A. függelék): E [g(ξ, η) h(ξ)] = g hd (P ξ P η ) = R r+s = g(x, y)dp η (y) h(x)dp ξ (x). R r R s A feltételes várható érték kiszámítása 1. Legyenek A, B A,és η = 1 A, ξ = 1 B és 0 < P (B) < 1. Mivel ξ értékkészlete {0, 1}, elég megadni az u 1, µ 2 R számokat úgy, hogy E ( (1 A µ 1 1 B µ 2 1 B ) 2) = (1 u 1 ) 2 P (A B) + µ 2 1P (A B) + (1 u 2 ) 2 P (A B) + µ 2 2P (A B) minimális legyen. így kapjuk: E(η ξ = x) = { P (A B) ha x = 1 P (A B) ha x = 0.

9.2. ELMÉLETI REGRESSZIÓ, FELTÉTELES VÁRHATÓ ÉRTÉK 99 Megjegyzés: Láthatjuk, hogy események indikátorának feltételes várható értéke szoros kapcsolatban van az események körében definiált feltételes valószínűséggel. A tulajdoságokból következnek továbbá, hogy egy ξ : Ω R p (v.)v.v. esetén: E(1 Ω ξ) = 1 A A 0 E(1 A ξ) 1 1-valószínűséggel E(1 A B ξ) = E(1 A ξ) + E(1 B ξ) ha A, B A és A B = Ezeket is figyelembe véve, az E(1 A ξ) feltételes várható értéket feltételes valószínűségnek nevezzük a továbbiakban, és az alábbi jelölést használjuk: P (A ξ) = E(1 A ξ) illetve P (A ξ = x) = E(1 A ξ = x) x R p. 2. Legyen A A, η = 1 A, ξ = i x i1 {ξ=xi }, és P (ξ = x i ) > 0 i = 1, 2,..., akkor írhatjuk E ( ( (η H ξ) 2) = E (1 µ i ) 1 A {ξ=xi } ) 2 µ i 1 A {ξ=xi } = i i ( E (1 µ i ) 2 1 A {ξ=xi } + ) µ 2 i 1 A {ξ=x i } = i i (1 µ i ) 2 P (A {ξ = x i }) + µ 2 i P ( A {ξ = x i } ) i i amiből kapjuk, mint előbb: P (A ξ = x) = P (A ξ = x i ) ha x = x i i = 1, 2,... Következmény: Ha η = j y j1 {η=yj }, ahol im(η) = {y j j = 1, 2,...} R q, akkor E(η ξ = x i ) = y j P (η = y j ξ = x i ) i = 1, 2,... j Tehát a feltételes várható érték {ξ = x i } feltétel esetén a (P (η = y j ξ = x i )) j un. feltételes eloszláshoz tartozó várható érték. Ebből y R q esetben kapjuk F η ξ (y x i ) = P (η < y ξ = x i ) = y j <y P (η = y j ξ = x i ) i = 1, 2,... amit az η (v.)v.v. ξ = x i feltételre vonatkozó feltételes eloszlásfüggvényének nevezünk. A feltételes eloszlásfüggvénnyel kifejezhetjük (az eloszlásfüggvényhez hasonlóan) a P (η I ξ = x i ) = P (η = y j ξ = x i ) = [ F η ξ ( x i ) ] I y j I i = 1, 2,... I R Kézirat, módosítva: 2006. október 24.

100 9. FEJEZET. REGRESSZIÓ ANALÍZIS feltételes valószínűségeket, és így egy h (mérhető) függvény esetén E(h η ξ = x i ) = j h(y j ) P (η = y j ξ = x i ) i = 1, 2,... ami megfelel a várható érték szokásos kiszámításának diszkrét eloszlás esetén. 3. Legyen A A és 0 < P (A) < 1, továbbá a ξ : Ω R p (v.)v.v. eloszlása olyan, hogy minden I R p intervallum esetén P (ξ I A) = f A P (ξ I A) = I f A ahol f A és f A valószínűségi sűrűségfüggvények, a ξ v.v. A ill. A eseményekre vonatkozó un. feltételes sűrűségfüggvényei. Ekkor a teljes valószínűség tétel szerint P (ξ I) = P (A) I f A + P (A) f A, I I tehát ξ sűrűségfüggvénye f ξ (x) = f A (x) P (A) + f A (x) P (A) x R p, továbbá P (A ξ = x) = f A(x)P (A) ha f ξ (x) > 0 (9.6) f ξ (x) xf A (x)dx ha y = 1 R E(ξ 1 A = y) = p xf A (x)dx ha y = 0 R p Ellenőrízzük az ortogonalitás teljesülését ez utóbbi formulák esetén: (a) Legyen h = 1 I, ahol I R p intervallum, akkor E ( 1 A 1 {ξ I} ) = P ({ξ I} A) = P (A) f A és ( ) fa (ξ)p (A) E 1 {ξ I} = P (A) f ξ (ξ) I I f A.

9.2. ELMÉLETI REGRESSZIÓ, FELTÉTELES VÁRHATÓ ÉRTÉK 101 (b) Legyen h : R R p tetszőleges, akkor h(1 A ) = a 1 A +b 1 A, ahol a = h(1), b = h(0) R p. A (9.6) formulát is használva E ( ξ T h(1 A ) ) = E T (ξ 1 A ) a + E T (ξ 1 A ) b = és E R p = E T [ξ P (A ξ)] a + E [ T ξ P ( A ξ )] b = ( ) ( ) = E T fa (ξ)p (A) ξ a + E T fa (ξ)p (A) ξ b = f ξ (ξ) f ξ (ξ) ( ) T ( ) T = xf A (x)dx ap (A) + xf A (x)dx bp (A) R p R p xf A (x)dx 1 A + R p xf A (x)dx 1 A T h(1 A ) = ( ) T ( ) T = xf A (x)dx ap (A) + xf A (x)dx bp (A) R p R p Következmény: Ha η = j y j1 {η=yj } ahol im(η) = {y j j = 1, 2,...} R q és a ξ : Ω R p (v.)v.v. {η = y j } feltételre vonatkozó sűrűségfüggvénye f j j = 1, 2,..., akkor ξ sűrűségfüggvénye: f ξ (x) = j f j (x)p (η = y j ) x R p továbbá E(η ξ = x) = j E(ξ η = y j ) = y j f j (x)p (η = y j ) f ξ (x) R p xf j (x)dx j = 1, 2,... ha f ξ (x) > 0 ( Tehát az E(η ξ) feltételes várható érték a P (η = y j ξ = x) = f ) j(x)p (η = y j ) f ξ (x) j feltételes eloszláshoz tartozó közönséges várható érték. Az ebből y R q esetén kapható F η ξ (y x) = P (η < y ξ = x) = y j <y f j (x)p (η = y j ) f ξ (x) ha f ξ (x) > 0 feltételes valószínűséget az η (v.)v.v. ξ = x feltételre vonatkozó feltételes eloszlásfüggvényének nevezzük. A feltételes eloszlásfüggvénnyel kifejezhetjük (az eloszlásfüggvényhez hasonlóan) a P (η I ξ = x) = y j I f j (x)p (η = y j ) f ξ (x) = [ F η ξ ( x) ] I ha f ξ (x) > 0 Kézirat, módosítva: 2006. október 24.

102 9. FEJEZET. REGRESSZIÓ ANALÍZIS feltételes valószínűségeket, és egy h (mérhető) függvény esetén E(h η ξ = x) = j h(y j ) fj(x)p (η = y j ) f ξ (x) ha f ξ (x) > 0 ami megfelel a várható érték szokásos kiszámításának diszkrét eloszlás esetén. 4. Legyen a (ξ, η) (p + q)-dimenziós v.v.v. sűrűségfüggvénye f : R p+q R + 0, akkor az ortogonalitás ellenőrzésével kapjuk: E(η ξ = x) = y f(y x)dy ha f ξ (x) > 0 R q ahol f ξ (x) = f(x, y)dy x R p R q a ξ perem sűrűségfüggvénye, és f(y x) = f(x, y) f ξ (x) ha f ξ (x) > 0 az η v.v.v. ξ = x feltételre vonatkozó un. feltételes sűrűségfüggvénye. Tehát a feltételes várható érték a feltételes sűrűségfüggvényhez tartozó közönséges várható érték. Következmények: (a) Az ortogonalitás ellenőrzéséből, vagy a 3. kiszámítási formulából kapjuk z R q esetén: F η ξ (z x) = P (η < z ξ = x) = f(y x)dy ha f ξ (x) > 0 ] ;z] amit az η (v.)v.v. ξ = x feltételre vonatkozó feltételes eloszlásfüggvényének nevezünk. Hasonlóan kaphatjuk tetszőleges I intervallum esetén P (η I ξ = x) = f(y x)dy = [ F η ξ ( x) ] ha f I ξ (x) > 0 I amiből kapjuk a folytonosság felhasználásával egy h (mérhető) függvény esetén a E(h η ξ = x) = h(y) f(y x)dy ha f ξ (x) > 0 R q kiszámítási formulát..

9.3. BAYES DÖNTÉS 103 (b) Legyen a (η, ξ) (q + p)-dimenziós v.v.v. eloszlása normális [ ] (m 1, m 2 ) R q+p V11 V 12 R (q+p) (q+p) V 21 V 22 várható értékkel és invertálható kovariancia mátrixszal. Ekkor η-nak a ξ-re vonatkozó feltételes sűrűségfüggvénye a 4. kiszámítási formula szerint: { f(y x) = C exp 1 2 (y m ) T ( } V 11 V 12 V22 1 V 1 21) (y m ) (9.7) ahol C = (2π) ( ( q 2 det V11 V 12 V22 1 V )) 1 2 21 R +, m = V 12 V22 1 (x m 2)+m 1, vagyis a feltételes sűrűségfüggvény normális eloszlás sűrűsége, a hozzá tartozó várható érték pedig a lineáris regressziós függvény, tehát E(η ξ = x) = V 12 V 1 22 (x m 2) + m 1 /x R p / továbbá a maradék kovariancia mátrix a lineáris regressziónál megismert: 9.3. Bayes döntés V R = V 11 V 12 V 1 22 V 21. Feladat: Legyen (A i ) n i=1 A teljes eseményrendszer, és P (A i) > 0 i = 1, 2,... n, továbbá a ξ p-dimenziós v.v.v. A i feltételre vonatkozó feltételes sűrűségfüggvénye f i : R p R + 0 i = 1, 2,... n. Keressük azt a un. döntés függvényt, mellyel a d : R p {1, 2,..., n} H d = n ( ) {d(ξ) = i} Ai i=1 döntési hiba valószínűsége a legkisebb. A döntési hiba valószínűségét átalakítva kapjuk: ( n n ) P (H d ) = 1 P ({d(ξ) = i} A i ) = 1 E P ({d(ξ) = i} A i ξ). i=1 i=1 A feltételes várható érték ill. valószínűség tulajdonságait használva kapjuk: n P ({d(ξ) = i} A i ξ = x) = i=1 n f i (x)p (A i ) 1 {d(x)=i} n j=1 f j(x)p (A j ) i=1 Kézirat, módosítva: 2006. október 24.

104 9. FEJEZET. REGRESSZIÓ ANALÍZIS n f i (x)p (A i ) 1 {d (x)=i} n j=1 f j(x)p (A j ) i=1 ha x R p és f ξ (x) = n j=1 f j(x)p (A j ) > 0. Itt d jelöli azt a döntés függvényt,melyre teljesül f i (x)p (A i ) f ξ (x) f k(x)p (A k ) f ξ (x) ha d (x) = k és f ξ (x) > 0, i = 1, 2,... n. Ezt a d függvényt Bayes döntésnek nevezzük, amivel a kitűzött feladat megoldását kapjuk, vagyis n P (H d ) P (H d ) = 1 P ({d (ξ) = i} A i ). Következmények: i=1 1. Legyen n = 2, és a két feltételes sűrűségfüggvény legyen V 1, V 2 R p p kovariancia mátrixú m 1, m 2 R p várható értékű normális eloszláshoz tartozó, vagyis f i (x) = továbbá ( 1 2π det(v i ) exp 1 ) 2 (x m i) T V 1 i (x m i ) p i = P (A i ) i = 1, 2 ahol p 1 + p 2 = 1. Ekkor a d Bayes döntés megadása ekvivalens az /x R p / i = 1, 2. f 1 (x) p 1 > f 2 (x) p 2 x R p egyenlőtlenség megoldáshalmazának megadásával, mely egyenlőtlenség esetünkben 1 2 (x m 1) T V 1 1 (x m 1 ) 1 2 (x m 2) T V 1 2 (x m 2 ) < C ahol ( ) ( ) C = ln det(v1 ) ln det(v2 ) + ln(p 2 ) ln(p 1 ) ami az x R p pont m 1 és m 2 várható értékektől való un. Mahalanobis távolságok összehasonlítását jelenti. 2. Ha a két kovariancia mátrix azonos, ez utóbbi egynelőtlenség ekvivalens az alábbi, az x R p pont un. lineáris diszkriminancia függvényének l(x) értékétől függő egyenlőtlenséggel: C < l(x) = x T V 1 (m 1 m 2 ) ahol C = 1 2 (m 1 m 2 ) T V 1 (m 1 + m 2 ) ln(p 2 ) + ln(p 1 ).

9.4. FELADATOK 105 9.4. Feladatok 1. Legyenek ξ, τ, ε N (0, 1) függetlenek, és η = τ + 1 2 ε ξ 1 = ξ ξ 2 = τ ξ Adjuk meg az η aξ 1 + bξ 2 + c regressziós közelítést, a kmaradék szórást és a többszörös korrelációs együtthatót! Vizsgáljuk az η és ξ 1 közti tiszta, ξ 2 hatásától mentes összefüggést, számítsuk ki a ρ η,ξ1 ξ 2 parciális korrelációs együthatót! 2. Keressük az x y 1 1 0 0 1 2 2 4 pontokra legjobban illeszkedő másodfokú polinomot! 3. A (ξ 1, ξ 2, ξ 3 ) v.v.v. kovariancia mátrixa és várható érték vektora 64 16 19 16 100 126 19 126 160 határozza meg a ρ ξ1,ξ 3 ξ 2 korrelációs együtthatót, adja meg a ξ 2 aξ 1 + bξ 3 + c regressziós függvényt, a közelítés maradék szórását! 4. Kétféle izzólámpából 60 illetve 40 van egy raktárban. Mindkét típus élettartama exponenciális eloszlású, várható élettartamuk pedig (ebben a sorrenben)120 ill. 200 óra. Véletlenszerűen választunk egy izzót a raktárból, adjuk meg a működési idő eloszlását! Ha a választott izzó 210 óráig működik, mennyi annak valószínűsége, hogy az egyik ill. másik csoportból való? Adjuk meg a Bayes döntést, és a döntés hibavalószínűségét! 5. Legyen ξ és η független, skalár értékű v.v., f : R R (mérhető) függvény, mutassuk meg, hogy P (η < f ξ ξ = x) = P (η < f(x)) x R! 6. Legyenek ξ : Ω R n η 1 : Ω R függetlenek, és η 2 = f ξ : Ω R v.v.-k, mutassuk meg, hogy, 10 20 30 P (η 1 + η 2 < z ξ = x) = P (η 1 < z f(x)) x R! Kézirat, módosítva: 2006. október 24.

106 9. FEJEZET. REGRESSZIÓ ANALÍZIS 7. Legyenek η N (0; σ), ε k N (0; σ 0 ) k = 1, 2,..., n független v.v.-k, és ξ k = η + ε k k = 1, 2,..., n, adjuk meg az E(η ξ 1, ξ 2,..., ξ n ) feltételes várható értéket! 8. Tudjuk, hogy a lakosság 52%-át kitevő nők testmagassága normális eloszlású 165cm várható értékkel és 8cm szórással. A férfiak magasságánál ezek a paraméterek 178cm és 10cm. Ha valakiről tujuk, hogy 173cm magas, mennyi a valószínűsége, hogy nő ill. férfi az illető? 9. Legyen a (ξ, η) 2-dimenziós v.v.v. sűrűségfüggvénye: f(x, y) = { c(x + y) x, y [0, 1] 0 egyébként. Ha- Adjuk meg az E(η ξ =.) feltételes várható értéket és a maradék szórást! sonlítsuk össze a kapott eredményt az η aξ + b regressziós közelítéssel! 10. Egy adott termékből háromféle átlagos élettartamú típus van forgalomban, melyek mennyiségének megoszlása 50%, 30% és 20%. Az élettartamokat exponenciális eloszlású, 50, 100 és 200 várható értékű véletlen mennyiségeknek tekintve, adjunk dötési szabályt egy megfigyelt élettartam alapján arra, hogy melyik típusú termékről van szó! 11. Két kockával dobunk, jelölje ξ az eredmények maximumát, η pedig a minimumát. Adjuk meg (a) az η aξ + b regressziós közelítést! (b) a {ξ = i} {η = j} legjobb döntési szabályt! (c) az E(η ξ) feltételes várható értéket!

10. fejezet Sztochasztikus folyamatok Vektor valószínűségi változók esetében véges sok indexhez tartozott egy-egy valószínűségi változó (komponens), aminek természetes kiterjesztése az alábbi fogalom. 10.1. Definíció. A (ξ t ) t T (n-dimenziós) valószínűsági változók együttesét sztochasztikus folyamatnak nevezzük, ahol T az un. paraméterhalmaz ; ξ t : Ω R n a t T -hez tartozó állapot (v.)v.v. ; ξ. (ω) : T R n az ω Ω-hoz tartozó pályagörbe, a folyamat egy véletlen realizációja ; Egy ilyen folyamat sokszor időben lejátszódó jelenségek modellje, ezért a T paraméter halmaz, mely legtöbbször N, Z,R,R + 0, vagy ezek valamely része lesz, elemeit időpontoknak mondjuk. Ha T N, Z idősorról, ha T R,R + 0 folyamatról beszélünk. 10.2. Példa. Legyen τ U(0, 1) v.v., és T = [0; 1], továbbá ξ t = 1 {τ =t} t T. Ekkor a (ξ t ) t T folyamat minden realizációja egy pont kivételével a konstans 0-értéket felvevő függvény, a t = τ(ω ) pontban pedig 1 az értéke, tehát szakadása van. Tetszőleges t T -hez tartozó ξ t állapot eloszlása P (ξ t = 0) = 1, de véges sok t 1, t 2,..., t k T esetén is P (ξ t1 = 0, ξ t2 = 0,..., ξ tk = 0) = 1. 10.3. Példa. Legyen T = [0; 1], ξ t = 0 t T Ekkor a (ξ t ) t T folyamat minden realizációja a konstans 0-értéket felvevő folytonos függvény, és a t T -hez tartozó ξ t állapot eloszlása P (ξ t = 0) = 1, és véges sok t 1, t 2,..., t k T esetén P (ξ t1 = 0, ξ t2 = 0,..., ξ tk = 0) = 1. 107

108 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK A fenti két példa szerint, két folyamat realizációi analitikus viselkedésüket tekintve eléggé különbözőek lehetnek, véges-dimenziós eloszlásaik azonban mégis azonosak. Mivel minden valószínűségszámítási jellemző a véges dimenziós eloszlásokkal adott, az ilyen folyamatokat sztochasztikusan ekvivalensnek nevezzük. Vizsgáljuk most meg egy (ξ t ) t T folyamat véges dimenziós eloszlásainak tulajdonságait, az egyszerűség kedvéért T R esetben: jelölje a t 1 < t 2 <... < t n T időpontokhoz tartozó véges-dimenziós eloszlást meghatározó eloszlásfüggvényt F t1,t 2,...,t n : R n [0; 1] ; (10.1) ekkor lim x + F t1,t 2,...,t n (x 1, x 2,..., x k 1, x, x k+1,... x n ) = = F t1,t 2,...,t k 1,t k+1,...,t n (x 1, x 2,..., x k 1, x k+1,..., x n ) x 1, x 2,..., x k 1, x k+1,..., x R. (10.2) Eloszlásfüggvények ilyen 10.1-10.2 halmazát kompatibilisnek nevezzük. A következő állítás szerint, ilyen eloszlások ismerete már meghatároz a 10.1 definíció szerinti sztochasztikus folyamatot, ezért a tvábbiakban legtöbbször az eloszlásokkal kapcsolatos ismereteket helyezzük előtérbe. 10.4. Tétel (Kolmogorov alaptétele). Legyen a T R index-halmazhoz tartozó eloszlásfüggvények egy (F t1,t 2,...,t n ) t1 <t 2 <...<t n T, n N + sztochasztikus folyamat, melynek véges- kompatibilis halmaza, akkor van olyan (ξ t ) t T dimenziós eloszlásaira: P ( ξ t1 < x 1, ξ t2 < x 2,... ξ tn < x n ) = Ft1,t 2,...,t n (x 1, x 2,..., x n ) t 1 < t 2 <... < t n T, n N, x 1, x 2,..., x n R. Természetesen az egyértelműség nem garantált, de az ilyen folyamatok már sztochasztikusan ekvivalensek. Az állítás általánosabb feltételek mellett is igaz, tehát amikor T tetszőleges halmaz, de akkor a kompatibilitási feltételt még ki kell egészíteni egy un. szimmetria feltétellel, ami azt jelenti, hogy az indexek tetszőleges permutációja esetén a változók hasonló permutációja ugyanazt az eloszlásfüggvényt eredményezi. Ez az állítás teszi lehetővé, hogy egy vagy több valószínűségi változó eloszlását adottnak véve, beszélhetünk ilyen eloszlású valószínűségi változókról, és a további vizsgálatok kiindulópontja is sok esetben az eloszlásfüggvények ismerete lesz.

10.1. VÉLETLEN ESEMÉNYFOLYAMAT, POISSON FOLYAMAT 109 10.1. Véletlen eseményfolyamat, Poisson folyamat A következő példa, véletlen időpontokban bekövetkező események modelljéül szolgál. Legyen a (ξ t ) t R + egy N állapotterű folyamat, melyre teljesülnek a következő feltételek: 0 1. ξ 0 = 0. 2. Ha 0 t 1 t 2 t 3... t n teljesen függetlenek. ξ tn ξ tn 1, ξ tn 1 ξ tn 2, ξ tn 2 ξ tn 3,..., ξ t2 ξ t1 3. Ha 0 t 1 t 2 t 3... t n, 0 h együttes eloszlása olyan mint ξ tn ξ tn 1, ξ tn 1 ξ tn 2, ξ tn 2 ξ tn 3,..., ξ t2 ξ t1 eloszlása. ξ tn+h ξ tn 1 +h, ξ tn 1 +h ξ tn 2 +h, ξ tn 2 +h ξ tn 3 +h,..., ξ t2 +h ξ t1 +h Megjegyzések: (a) A ξ t v.v. jelentésének a [0, t[ intervallumban bekövetkező események számát tulajdonítva, az 1. feltételezés természetes. (b) A 2. feltétel szerint a folyamat un. független növekményű, azaz az egymást követő időintervallumok alatt észlelt események száma egymástól független, és 1. miatt ξ t = ξ t ξ 0 és ξ t+h ξ t függetlenek, ha t, h 0. (c) A 3. feltétel a folyamat növekményeinek un. stacionárius voltát jelenti, ami az 1.-2. feltételek miatt ekvivalens az alábbi egyszerőbb feltétellel: Ha 0 t, h ξ t+h ξ t eloszlása nem függ t-től, azaz eloszlása azonos ξ h eloszlásával. 4. Teljesül továbbá P (ξ h 1) = λ h + r 1 (h) h 0 P (ξ h 2) = r 2 (h) h 0 ahol λ > 0, és 1 lim h 0 h r i(h) = 0 i = 1, 2. Kézirat, módosítva: 2006. október 24.

110 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK a A továbbiakban meghatározzuk a folyamat véges dimenziós eloszlásait. ξ t eloszlását p n (t) = P (ξ t = n) n N, t 0 függvények határozzák meg. Mivel { ξt+h = 0 } = {ξ t = 0} { ξ t+h ξ t = 0 }, felhasználva a novekmények függetlenségét és stacionárius tulajdonságát, kapjuk p 0 (t + h) = p 0 (t)p 0 (h) t, h 0 amiből a 4. tulajdonság felhasználásával kapjuk amiből következik, hogy p 0 megoldása a kezdetiérték feladatnak, tehát p 0 (t + h) p 0 (t) = λhp 0 (t) p 0 (t)r 1 (h) p 0 (t) = λp 0(t) t 0 p 0 (0) = 1 p 0 (t) = e λt t 0. Tegyük fel most, hogy a p n 1 függvény már ismert, és keressük a p n függvényt. Használjuk a következőket { ξt+h = n } = ( {ξ t = n} { ξ t+h ξ t = 0 }) ( {ξ t = n 1} { ξ t+h ξ t = 1 }) R Mivel és ahol R = R kapjuk amiből n ( {ξt = n k} { ξ t+h ξ t = k }). k=2 n ({ ξt+h ξ t = k }) 0 P (R) k=2 1 lim h 0 h P (R) = 0 P (ξ h = k) = P (ξ h 2) = r 2 (h), k=2 p 1 (h) = 1 p 0 (h) P (ξ h 2) = 1 p 0 (h) r 2 (h) p n (t + h) p n (t) = (p 0 (h) 1) p n (t) p n 1 (t) (p 0 (h) 1) p n 1 (t)r 2 (h) + P (R) p n (t) = λp n(t) + λp n 1 (t) t 0 p n (0) = 0.

10.1. VÉLETLEN ESEMÉNYFOLYAMAT, POISSON FOLYAMAT 111 Vezessük be a q n (t) = p n (t) e λt t 0 függvényeket, melyekre Felhasználva, hogy q 0 (t) = 1, kapjuk q n(t) = λq n 1 (t) t 0 q n (0) = 0. q n (t) = (λt)n n! t 0 és így p n (t) = (λt)n e λt t 0, n = 0, 1, 2,.... n! Használjuk fel a folyamt növekményeinek függetlenségét és a stacionárius tulajdonságát, igy kapjuk a véges dimenziós eloszlásokat a 0 t 1 t 2 t 3... t n időpontokban: P (ξ t1 = k 1, ξ t2 = k 2,..., ξ tn = k n ) = P (ξ t1 = k 1, ξ t2 ξ t1 = k 2 k 1,..., ξ tn ξ tn 1 = k n k n 1 ) = = (λt 1) k 1 k 1 e λt1 (λ(t 2 t 1 )) k2 k 1! (k 2 k 1 e λ(t 2 t 1)... (λ(tn t n 1)) kn k n 1 )! (k n k n 1 e λ(tn tn 1) = )! = k n! k 1!(k 2 k 1 )!... (k n k n 1 )! ( t 1 t n ) k1 ( t 2 t 1 t n ) k2 k 1... ( tn t n 1 t n ) kn k n 1 (λt n) kn k n! e λtn ahol k 1 k 2... k n N. Következmények: 1. A ξ t v.v. és a folyamat ξ t+h ξ t növekménye függetelen Poisson eloszlású λt illetve λh paraméterrel, ha t, h 0. 2. A véges dimenziós eloszlásból kapjuk, hogy a 0 t 1 t 2 t 3... t n által meghatározott felosztás részintervallumaiban bekövetkező események száma, feltéve, hogy összesen l számú esemény következett be, P (ξ t1 = l 1, ξ t2 ξ t1 = l 2,..., ξ tn ξ tn 1 = l n ξ tn = l) = ( ) l1 ( ) l2 ( l! t1 t2 t 1 tn t n 1 =... l 1! l 2!... l n! t n ahol l 1, l 2,... l n N, és n i=1 l i = l. Tehát ez az eloszlás l-edrendű polinomiális, az intervallumok hosszával arányos valószínűség paraméterekkel. t n t n ) ln Kézirat, módosítva: 2006. október 24.

112 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK 3. A véges dimenziós perem-eloszlások fenti alakja, és az előzőek szerint, a Poisson folyamat egy (szimulációkban jól használható) közelítése az alábbiak szerint adható meg: Legyenek τ 1, τ 2,..., τ N egyenletes eloszlású, független véletlen számok a [0; 1] intervallumban, 0 < λ és N ξ t = 1 { N λ τ t 0. i t} i=1 Ekkor 0 t 1 t 2 t 3... t n N λ P (ξ t1 = k 1, ξ t2 = k 2,..., ξ tn = k n ) = és k 1 k 2... k n N esetén = P (ξ t1 = l 1, ξ t2 ξ t1 = l 2,..., ξ tn ξ tn 1 = l n ) = = P (ξ t1 = l 1, ξ t2 ξ t1 = l 2,..., ξ tn ξ tn 1 = l n, ξ N λ = N! l 1! l 2!... l n! (N l)! = l! l 1! l 2!... l n! (1 λtn N ( t 1 ( λt1 N ) ( l1 λ(t2 t 1 ) N ( t 2 t 1 t n ) l2... ( λ(tn t n 1 ) N ) l2... ( tn t n 1 t n ) l1 t n ) l N N 1... N l+1 N N N ξ tn = N l) = ) ln ( ) λ( N N l = λ tn) N ) ln λ l (1 λtn l! N ahol l 1 = k 1, l i = k i k i 1 i = 2, 3,..., n és l = n i=1 l i = k n. Ez pedig N esetén azt jelenti, hogy az így definiált (ξ t ) t 0 folyamat véges-dimenziós peremeinek eloszlása tart a Poisson folyamat megfelelő peremének eloszlásához. 4. Markov tulajdonság: ha 0 t 1 t 2 t 3... t n t és k 1 k 2... k n k N, akkor P (ξ t = k ξ tn = k n, ξ tn 1 = k n 1,..., ξ t1 = k 1 ) = = (λ(t t n)) k kn e λ(t tn) = P (ξ (k k n )! t = k ξ tn = k n ) 5. Martingál tulajdonság: jelölje η t = ξ t λt a centrált folyamatot, és legyenek 0 t 1 t 2 t 3... t n t, és k 1 k 2... k n k N, továbbá y j = k j t j λ j = 1, 2,... n, ekkor E(η t η tn = y n, η tn 1 = y n 1,..., η t1 = y 1 ) = ) N = E(ξ t ξ tn = y n + t n λ, η tn 1 = y n 1 + t n 1 λ,..., η t1 = y 1 + t 1 λ) λt = = kp (ξ t = k ξ tn = k n, ξ tn 1 = k n 1,..., ξ t1 = k 1 ) λt = k=k n = kp (ξ t = k ξ tn = k n ) λt = k=k n = (k k n ) (λ(t t k k n n)) e λ(t tn) + k n λt = (k k n )! k=k n = λ(t t n ) + k n λt = y n.

10.1. VÉLETLEN ESEMÉNYFOLYAMAT, POISSON FOLYAMAT 113 6. A Poisson folyamat szakadási helyeinek eloszlása: A folyamat n edik szakadási helyét jelölje ami valószínűségi változó, mivel ζ n = sup {t ξ t = n 1} n = 1, 2,..., t 0 {ζ n x} = {ξ x n} n N +, x R +. Itt a sup legyen 0, ha a {t ξ t = n 1} halmaz üres, és {ζ n x} = ha x < 0. Ekkor a (ζ n ) n=1 monoton nem csökkenő sorozat, és ha 0 < x 1 < x 2 <... < x n, és h > 0 olyan, hogy x i + h < x i+1, akkor P (x 1 < ζ 1 < x 1 + h x 2 < ζ 2 < x 2 + h... x n < ζ n < x n + h) = = P (ξ x1 = 0) P (ξ h = 1) P (ξ x2 x 1 h = 0)... P (ξ h = 1) = = λ n h n exp ( λx n λh). Ebből, h n -vel osztva, és h 0 határátmenettel kapjuk ζ 1, ζ 2,..., ζ n sűrűségfüggvényét: { λ n e λxn ha 0 < x 1 < x 2 <... < x n f(x 1, x 2,..., x n ) =, 0 egyébként együttes amiből kapjuk a szomszédos szkadások között eltelt ζ 1, ζ 2 ζ 1,..., ζ n ζ n 1 idők eloszlásának { λ n e λ P n i=1 u i ha 0 < u 1, u 2,..., u n g(u 1, u 2,..., u n ) = 0 egyébként sűrűségfüggvényét, tehát a (ζ n ) n=1 idősor egy-lépéses δ 1 = ζ 1 δ n = ζ n ζ n 1 n = 2, 3,... növekményei (differenciái) független exponenciális eloszlásúak. Így írhatjuk n ζ n = δ i n = 1, 2,..., i=1 tehát ζ n független, azonos λ-paraméterű exponenciális eloszlású v.v.-k összege. 7. A Poisson folyamat várható értéke és kovariancia függvénye: E(ξ t ) = λt t 0, és ha pl. t s, akkor ξ s és ξ t ξ s függetlenek, igy E(ξ s ξ t ) = E(ξ s )E(ξ t ξ s ) + E(ξ 2 s) = λ 2 s(t s) + λs + (λs) 2 = λ 2 ts + λs, amiből kapjuk cov(ξ t, ξ s ) = λ min{s, t}. Kézirat, módosítva: 2006. október 24.

114 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK 8. A trajektóriák folytonossága: (a) négyzetes középben, E ( (ξ t ξ s ) 2) = E ( ((ξ t λt) (ξ s λs) + λ(t s)) 2) = = cov(ξ t, ξ t ) + cov(ξ s, ξ s ) 2 cov(ξ t, ξ s ) + (E(ξ t ) E(ξ s )) 2, amiből a várható érték és kovariancia függvények folytonossága miatt következik lim t s E ( (ξ t ξ s ) 2) = 0. (b) sztochasztikusan, 0 P ( (ξ t ξ s ) 2 > ε 2) < E ((ξ t ξ s ) 2 ) ε 2 amit a Markov egyenlőtlenségből kapunk, és felhasználva a négyzetes közép szerinti folytonosságot, kapjuk ε > 0 esetén (c) 1-valószínűséggel, A s = lim P ( ξ t ξ s > ε) = 0 t s { } lim ξ t ξ s = t s {ζ n = s} n=1 amiből ζ n folytonos eloszlása (2λζ n χ 2 2n ) miatt következik P (A s ) = 0. 10.2. Brown-mozgás, Wiener folyamat A következő példa folyadékban véletlenszerű mozgást végző részecskék modelljeként vált nevezetessé. Az egyszerűség kedvéért, az un. egy-dimenziós Brown-mozgás modelljét vizsgáljuk, tehát a részecske elmozdulástát egyetlen tengely irányában figyeljük meg. A (ξ t ) t 0 folyamat legyen R állapotterű, és feltételezzük az alábbiakat: 1. ξ 0 = 0. 2. A folyamat független növekményű, és a növekmények stacionáriusak és normális eloszlásúak, tehát ξ t ξ s N (0, d(t s)) 0 s < t ahol d:r + 0 R+ 0 Következmények: folytonos függvény, melyre 1.miatt d(0) = 0.

10.2. BROWN-MOZGÁS, WIENER FOLYAMAT 115 1. Mivel 0 s, t esetén ξ t+s = (ξ t+s ξ t ) + ξ t, és az összeg tagjai függetlenek, d 2 (t + s) = d 2 (s) + d 2 (t), tehát d 2 a fenti függvényegyenlet megoldása, amiből következik, hogy d 2 (t) = σ 2 t t 0 Tehát a növekmények eloszlására teljesül: ξ t ξ s N (0, σ t s) 0 s < t. 2. A folyamat várható értéke és kovariancia függvénye: m t = 0 Γ(t, s) = σ 2 min{t, s} ami egyszerű számolással ellenőrízhető, és így az un. korrelációs függvény pedig az alábbi lesz { } t s γ(t, s) = min s,. t 3. A folyamat véges dimenziós eloszlása a 0 t 1 < t 2 <... < t n időpontokban a növekmények függetlensége, és stacionárius volta miatt egy n-dimenziós normális eloszlás lesz: (ξ t1, ξ t2,... ξ tn ) N 0, σ2 t 1 t 1 t 1 t 1 t 2 t 2... t 1 t 2 t n 4. Martingál tulajdonság: ha 0 t 1 < t 2 <... < t n < t, akkor. E(ξ t ξ t1, ξ t2,... ξ tn ) = E(ξ t ξ tn ξ t1, ξ t2,... ξ tn ) + E(ξ tn ξ t1, ξ t2,... ξ tn ) = ξ tn. 5. Markov tulajdonság: ha 0 t 1 < t 2 <... < t n < t, akkor az f ξt ξ t1,ξ t2,...ξ tn (x x 1, x 2,..., x n ) = f ξ t ξ t1,ξ t2,...ξ tn (x,x 1,x 2,...,x n) f ξt1,ξ t2,...ξ tn (x 1,x 2,...,x n) x R, (x 1, x 2,..., x n ) R n feltételes sűrűségfüggvény, mivel az együttes eloszlás normális, olyan normális eloszlás sűrűségfüggvénye, melynek várható értéke a feltételes várható érték E(ξ t ξ t1 = x 1, ξ t2 = x 2,..., ξ tn = x n ) = x n, szórása pedig a maradék szórás σ R = E ( (ξ t ξ tn ) 2) = D(ξ t tn ) = σ (t t n ). Kézirat, módosítva: 2006. október 24.

116 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK Tehát f ξt ξ t1,ξ t2,...ξ tn (x x 1, x 2,..., x n ) = amiből következik } 1 { 2πσ (t tn ) exp 1 2σ 2 (t t n ) (x x n) 2 = f ξt ξ tn (x x n ) x, x n R P (ξ t < x ξ t1 = x 1, ξ t2 = x 2,..., ξ tn = x n ) = = P (ξ t < x ξ tn = x n ) x, x n R, vagyis tetszőleges ξ t -vel kapcsolatos {ξ t A} eseményre: x f ξt ξ tn (u x n )du = P (ξ t A ξ t1 = x 1, ξ t2 = x 2,..., ξ tn = x n ) = P (ξ t A ξ tn = x n ) x n R. 6. A trajektóriák folytonossága: (a) négyzetes középben lim E ( (ξ t ξ s ) 2) = lim σ 2 t s = 0. t s t s (b) sztochasztikusan ε > 0 : lim P ( ξ t ξ s > ε) = 0 t s mivel a Markov egyenlőtlenségből Megjegyzések: 0 P ( ξ t ξ s 2 > ε 2) E ((ξ t ξ s ) 2 ) ε 2 1. A folyamat független és stacionárius növekményűsége miatt tetszőleges n N + esetén n ξ i n ξ t = t ξ (i 1) n t t n i=1 ami azt sugalja, hogy ξ t egyfajta integrálközelítő összegek határértéke, feltéve a η s,h = ξ s+h ξ s s, h > 0 h differencia hányados valamilyen értelemben vett határértékének létezését h 0 esetén. Mivel D(η s,h ) = σ ha h 0, h ez a határérték nem létezhet, az eddigi fogalmaink szerint nincs olyen folyamat, melynek ξ t az integrál-függvénye. Formálisan ugyanis azt kellene elfogadnunk, hogy a Wiener folyamat olyan, minden időpontban végtelen nagy szórású Gauss folyamat integrál függvénye, melynek különböző időpontokhoz tartozó állapotai függetlenek. Ilyen általánosabb értelemben vett folyamat az un. fehérzaj folyamat. t n

10.2. BROWN-MOZGÁS, WIENER FOLYAMAT 117 2. Legyen (W t ) t 0 az un. standard Wiener folyamat, tehát amelynek 0 s < t időpontokhoz tartozó növekményei: W t W s N ( 0, t s ). Ekkor a σ-paraméterű Wiener folyamat h > 0 időtartamhoz tartozó változásaira dξ t = σ dw t (*) ahol dξ t = ξ t+h ξ t dw t = W t+h W t. A (*) egyenletet, mint a sodrásmentes, csak kaotikus Brown-mozgást leíró differenciálegyenletet tekinthetjük a ξ 0 = 0 kezdeti feltétellel. Ha van egy állandó v sebességű sodrás, a (*) egyenlet az alábbiak szerint módosul: dξ t = v dt + σ dw t, (**) a ξ 0 kezdeti értékről pedig feltesszük, hogy független a W t W s megváltozásoktól, ha 0 s < t. A (**) egyenlet megoldása ekkor ξ t = ξ 0 + v t + σw t, amiből az is látható, hogy ξ t független a t s < s időpontokhoz tartozó, tehát a t-t követő W s W s megvátozásoktól. Mindezek természetes általánosítása a dξ t = F (t, ξ t ) dt + G(t, ξ t ) dw t (***) egyenlet, a W t W s megváltozásoktól (0 s < t) független ξ 0 kezdeti értékkel. Ha ebből a kis h > 0 időtartamhoz tartozó növekményeket ennek megfelelően írjuk: ξ t+h = ξ t + F (t, ξ t ) h + G(t, ξ t ) (W t+h W t ) amiből most is következik, hogy ξ t+h független a W t folyamat t + h-időpont utáni megváltozásaitól. Ebben az egyenletben az F az un. sodrás, és G az un. diffúziós együttható függvények. Természetesen (***) pontos megfogalazása ξ t = ξ 0 + t 0 F (t, ξ t ) dt + t 0 G(t, ξ t ) dw t lenne, ahol az integrálok, de különösen a második integrál pontos értelmezése némi előkészületet igényelne, ezzel azonban itt nem foglalkozunk. Ha pl. F lineáris a második változójában, tehát F (t, ξ t ) = f(t)ξ t, a megoldás-folyamat várható értéke megoldása az m (t) = f(t) m(t) t 0, m(0) = E(ξ 0 ) kezdetiérték feladatnak. Kézirat, módosítva: 2006. október 24.

118 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK 3. Ha a (***) egyenlet megoldás-folyamatát a 0 < h (kicsiny) időtartam többszöröseinek megfelelő időpontokban η n = ξ nh n = 0, 1, 2,... jelöli, kapjuk az η n+1 η n = A n (η n ) + b n (η n )ε n+1 n N egyenletet, ahol A n (x) = F (nh, x) és b n (x) = ( ) hg(nh, x) /n N, x R/, továbbá ε n+1 = 1 W(n+1)h h W nh n N az un. diszkrét fehérzaj idősora, vagyis független, standard normális eloszlású v.v.-k sorozata. Ha bevezetjük még az a n (x) = A n (x) x függvényt, kapjuk az η n+1 = a n (η n ) + b n (η n )ε n+1 n N egyenletet, amiből a lineáris esetben, tehát amikor F a második változójában lineáris, továbbá ha G nem függ az állapottól, kapjuk η n+1 = a n η n + b n ε n+1 n N η 0 = ξ 0 az un. elsőrendű autóregressziós idősort. 10.3. Független és stacionárius növekményű folyamatok Az alábbiakban összefoglaljuk az előző két példa kapcsán megismert tulajdonságokat, és azon következményeket, amelyek a növekmények függetlenségéből és stacionárius voltából következnek. 10.5. Definíció. A (ξ t ) t T, ahol T R, sztochasztikus folyamatot független növekményűnek nevezzük, ha teszőleges esetén a t 1 < t 2 <... < t n T, n N valószínűségi változók függetlenek. ξ tn ξ tn 1, ξ tn 1 ξ tn 2,... ξ t2 ξ t1 10.6. Definíció. A (ξ t ) t T, ahol T R, sztochasztikus folyamatot stacionárius növekményűnek nevezzük, ha esetén a t 1 < t 2 <... < t n T és t 1 + h < t 2 + h <... < t n + h T, n N ξ tn ξ tn 1, ξ tn 1 ξ tn 2,... ξ t2 ξ t1 növekmények együttes eloszlása megegyezik a növekmények együttes eloszlásával. ξ tn+h ξ tn 1 +h, ξ tn 1 +h ξ tn 2 +h,... ξ t2 +h ξ t1 +h

10.3. FÜGGETLEN ÉS STACIONÁRIUS NÖVEKMÉNYŰ FOLYAMATOK 119 Megjegyzések: 1. A t k és t k+1 közötti éles egyenlőtlenség természetesen mindkét definícióban enyhíthető, mivel egyenlőség esetén a növekmény a konstans 0 = ξ tk+1 ξ tk, ami minden valószínűségi változótól független, eloszlása pedig nem változik a h-időeltolással. 2. Ha a növekmények stacionárius eloszlásúak, és T = R + 0 vagy T = N, szokásos további feltételezés a kezdő állapotra: Ha ugyanis ez nem teljesül, a folyamatot ξ 0 = 0. ξ t = ξ t ξ 0 t T módosítva, már ilyen folyamatot kapunk. 3. A (ξ t ) t T folyamat független növekményűségéből, ha az s < t T időpontokhoz tartozó ξ t ξ s növekmény eloszlása csak a t s különbségtől függ, következik a növekmények stacionárius tulajdonsága. Most felsorolunk néhány, a példákban is bemutatott következményt. Következmények: 1. Legyen (ξ t ) t T független és stacionárius növekményű folyamat,és ξ 0 = 0 és T = R + 0, N,R vagy Z, továbbá a várható érték és szórás az idő-paraméter folytonos függvénye (ami a diszkrét idő-paraméter esetén mindíg teljesül), akkor teljesülnek az alábbi állítások. (a) A folyamat szórásnégyzete és várható értéke D 2 (ξ t ) = σ 2 t t T, m(t) = E(ξ t ) = λ t t T. Bizonyítás. Ha T = N vagy Z, akkor D 2 (ξ n ) = D 2 ( n k=1 ( ξk ξ k 1 ) ) = σ 2 n n T ahol σ 2 = D 2 (ξ 1 ). Ha T = R + 0 vagy R, jelölje d(t) = D2 (ξ t ) t T nemnegatív páros függvényt, és ekkor 0 t, s esetén teljesül d(t + s) = d(t) + d(s) Kézirat, módosítva: 2006. október 24.

120 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK mely egyenlet megoldása d(t) = σ 2 t t T. Hasonlóan, ha λ = m(1) kapjuk a diszkrét esetben m(n) = λ n n T, és a folytonos idő-paraméter esetén ha s, t T m(t + s) = m(t) + m(s) aminek megoldása m(t) = λ t t T, ahol λ = m(1). (b) A folyamat kovarianciafüggvénye Γ(t, s) = σ 2 min{t, s} s, t T, korrelációs függvénye pedig γ(t, s) = min { t s, } s t 0 < s, t T. Bizonyítás. Ha 0 t < s T két független v.v. összege, így ξ s = ξ t + (ξ s ξ t ) E(ξ s ξ t ) = D 2 (ξ t ) + E 2 (ξ t ) + (E(ξ s ) E(ξ t )) E(ξ t ) = σ 2 t + E(ξ s ) E(ξ t ) amiből kapjuk a bizonyítandó állítást. (c) A folyamat trajektóriái folytonosak négyzetes középben és sztochasztikusan. Bizonyítás. Mint a Wiener-folyamat példájában. (d) Ha λ = E(ξ 1 ) > 0 akkor a folyamat sztochasztikusan divergál + -hez, azaz minden K R esetén lim P (ξ t K) = 0. (10.3) t Bizonyítás. Legyen 0 < t 0 T olyan, hogy E(ξ t ) = λt > K ha t > t 0, ekkor a Csebisev egyenlőtlenség 5.4 következményét használva kapjuk P (ξ t K) = P (λt ξ t λt K) P ( λt ξ t λt K) amiből t esetén következik az állítás. σ 2 t (λt K) 2,

10.3. FÜGGETLEN ÉS STACIONÁRIUS NÖVEKMÉNYŰ FOLYAMATOK 121 Megjegyzés: 10.3 írható lim P (ξ t > K) = 1 t alakban is, és λ < 0 esetén hasonlóan nyerhető, hogy a folyamat -be divergál, vagyis lim t P (ξ t < K) = 1. 2. Legyen a (ξ t ) t T folyamat független növekményű és centrált, azaz E(ξ t ) = 0, ahol most T = N vagy R + 0 és ξ 0 = 0, akkor esetén 0 t 1 < t 2 <... < t n < t T E(ξ t ξ t1, ξ t2,..., ξ tn ) = ξ tn tehát teljesül az un. martingál tulajdonság. Bizonyítás. Mivel a folyamat független növekményű és E(ξ t ξ tn ξ t1, ξ t2,..., ξ tn ) = E(ξ t ξ tn ) = 0 E(ξ tn ξ t1, ξ t2,..., ξ tn ) = ξ tn kapjuk ezek összegéből a bizonyítandó állítást. 3. Legyen a (ξ t ) t T folyamat független növekményű, ahol most T = N vagy R + 0, ξ 0 = 0, akkor 0 t 1 < t 2 <... < t n < t T és x, x 1, x 2..., x n R esetén P (ξ t < x ξ t1 = x 1, ξ t2 = x 2,..., ξ tn = x n ) = P (ξ t < x ξ tn = x n ), (10.4) tehát teljesül az un. Markov tulajdonság. Bizonyítás. Mivel η = ξ t ξ tn független a ξ tn ξ tn 1, ξ tn 1 ξ tn 2,..., ξ t1 ξ 0 = ξ t1 növekményektől, ezért független annak föggvényeként írható ξ = ( ξ t1, ξ t2,..., ξ tn ) Kézirat, módosítva: 2006. október 24.

122 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK v.v.v.-tól is, és a feltételes várható értkkkel kapcsolatos 105. oldal 5. feladat szerint, mivel ξ és η függetlenek, és f(x 1, x 2,..., x n ) = x x n jelöléssel kapjuk: P (η < f ξ ξ = (x 1, x 2,..., x n )) = = P (ξ t ξ tn < x ξ tn ξ = (x 1, x 2,..., x n )) = = P (ξ t ξ tn < x x n ), de akkor P (ξ t < x ξ tn = x n ) = P (ξ t ξ tn < x x n ) is teljesül, amiből következik 10.4. 10.4. Stacionárius folyamatok A korábbiakban olyan folyamatokat vizsgáltunk, melyek időbeni megváltozásai rendelkeztek nevezetes tulajdonságokkal, függetlenek ill. stacionáriusak. Ilyen folyamatok diszkrét időpontokban való megfigyelése esetén a differenciák képzésével kapott új folyamat rendelkezik a következő tulajdonsággal. 10.7. Definíció. A (ξ t ) t T sztochasztikus folyamatot (erősen) stacionáriusnak nevezzük, ha t 1, t 2,..., t n T R és t 1 + h, t 2 + h,..., t n + h T esetén a ξ t1, ξ t2,..., ξ tn és ξ t1 +h, ξ t2 +h,..., ξ tn+h véges dimenziós peremek eloszlása megegyezik. Megjegyzések: 1. Stacionárius folyamat esetén ξ t eloszlása t T esetén ugyanaz, tehát a várható érték és szórás-függvény m(t) = E(ξ t ) = m, D(ξ t ) = σ t T állandó, illetve a kovariancia függvény Γ(t, s) = cov(ξ t, ξ s ) = R(t s) t, s T ahol R : T T R páros függfény, R(0) = σ 2, és T T = {t s t, s T }. 2. A Γ illetve R kovarianciafüggvény egy un. pozitív szemidefinit függvény, azaz: t 1, t 2,..., t n T és x 1, x 2,..., x n R

10.4. STACIONÁRIUS FOLYAMATOK 123 esetén teljesül n k=1 n Γ(t k, t l )x k x l = l=1 n k=1 n R(t k t l )x k x l 0, ami egyszerű következménye a megfelelő véges dimenziós perem kovariancia mátrixa hasonló tulajdonságának. 3. Stacionárius Gauss folyamat (a véges dimenziós peremek együttes eloszlása normális) esetén a folyamat véges dimenziós eloszlásait meghatározza az R függvény, és az m állandó. 10.8. Definíció. A (ξ t ) t T sztochasztikus folyamatot gyengén stacionáriusnak nevezzük, ha l=1 t T esetén m(t) = E(ξ t ) = m állandó t, s T esetén Γ(t, s) = cov(ξ t, ξ s ) = R(t s), ahol R : T T R függvényt nevezzük a folyamat (auto-) kovariancia függvényének. Megjegyzések: 1. Ha teljesül még R(0) = 1, szokás R-et (auto-) korrelációs függvénynek nevezni, mivel ekkor R(h) a h távolságra lévő időpontokhoz tartozó állapotok korrelációs együtthatója. Szintén gyakori egyszerűsítési lehetőség, hogy a folyamat centráltját vizsgáljuk, tehát m = 0. 2. Az nyilvánvaló, hogy az erősen stacionárius folyamat gyengén is stacionárius, feltéve a várható értékek és kovarianciák létezéset. Fordítva, pl. Gauss folyamat esetén a gyengén stacionáris tulajdonságból következik az erős értelemben vett stacionárius tulajdonság. 3. Komplex értékű folyamatok esetén a kovariancia függvény [ ] Γ(t, s) = cov(ξ t, ξ s ) = E (ξ t m(t)) (ξ s m(s)) t, s T thehát stacionárius folyamat esetén R R C pozitív szemidefinit függvény, azaz esetén t 1, t 2,..., t n T és x 1, x 2,..., x n C n k=1 n R(t k t l )x k x l 0. l=1 A következő egyszerű következményekben azt soroljuk fel, hogy a stacionárius (erős vagy gyenge) tulajdonság megmarad bizonyos transzformációk esetén. Megjegyzések: Kézirat, módosítva: 2006. október 24.

124 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK 1. Legyen (ξ t ) t T stacionárius erős vagy gyenge értelemben, és c R olyan, hogy ha t T akkor c t T, akkor η t = ξ ct t T folyamat is stacionárius, melynek várható érték és kovariancia függvénye: ahol m = E(ξ t ). m η (t) = m t T, R η (h) = R ξ (c h) h T, 2. Legyen (ξ t ) t T stacionárius erős vagy gyenge értelemben, és T T, akkor az η t = ξ t t T leszűkítés is stacionárius hasonló értelemben. Ezt gyakran alkalmazzuk folytons időparaméterű folyamat diszkrét időpontokban történő megfigyelése esetén. Ekkor (η t ) t T várható érték és kovariancia függvénye egyszerű leszűkítése az eredetinek. 3. Legyen (ξ t ) t T stacionárius erős vagy gyenge értelemben, és a, b R, akkor η t = a ξ t + b t T szintén stacionárius a megfelelő értelemben. Ekkor (η t ) t T várható érték és kovariancia függvénye: ahol m = E(ξ t ). m η (t) = a m + b t T, R η (h) = a 2 R ξ (h) h T T, 4. Legyenek (ξ t ) t T, (η t ) t T független stacionárius folyamatok erős vagy gyenge értelemben, akkor ζ t = ξ t + η t t T szintén stacionárius a megfelelő értelemben. Az összeg várható érték és kovariancia függvénye: m ζ (t) = m ξ + m η t T, R ζ (h) = R ξ (h) + R η (h) h T T ahol m ξ = E(ξ t ), m η = E(η t ). A következőkben néhány nevezetes stacionárius (gyenge ill. erős értelemben) folyamatot mutatunk be. Példák: 1. Legyen ξ egy v.v. E(ξ) = m, D(ξ) = σ, és legyen ξ t = ξ t T (R, vagy Z). Nyilván (ξ t ) t T stacionárius, erős értelemben, melynek trajektóriái semmi változást nem mutatnak, állandók. A folyamat várható értéke és kovariancia függvénye: m(t) = m R(t) = σ 2 t T.

10.4. STACIONÁRIUS FOLYAMATOK 125 2. Legyenek ε t N (0, 1) t Z függetlenek, vagyis a diszkrét fehérzaj, és legyen ξ t = σε t t Z. Nyilván (ξ t ) t T stacionárius, erős értelemben. Az előző példával ellentétben a trajektóriák teljesen véletlen váltakozást mutatnak, mivel a különböző időpontokhoz tartozó állapotok teljesen függetlenek.a folyamat várható értéke és kovariancia függvénye: m(t) = 0 R(t) = { σ 2 ha t = 0 0 egyébként t Z. 3. A következő példa folyamata az előző szélsőségekhez képest szabályos, periódikus változású trajektóriákkal rendelkezik. Állítás: Legyen g : R R egy T -szerint periódikus függvény, τ U(0, T ) (egyenletes eloszlású a [0, T ] intervallumon) v.v., és legyen ξ t = g(t + τ) t R sztochasztikus folyamat, akkor (ξ t ) t R erősen stacionárius. Bizonyítás. Felhasználjuk, hogy egy ξ : Ω R n v.v.v ϕ ξ (y) = E ( e i<y,ξ>) y R n karakterisztikus függvénye egyértelműen meghatározza ξ eloszlását. Legyenek t 1, t 2,..., t n, h R, és írjuk fel ξ = (ξ t1, ξ t2,..., ξ tn ) karakterisztikus függvényét: ϕ ξ (y) = 1 T amiből x = u + h helyettesítéssel T 0 e i P n k=1 y kg(t k +x) dx ϕ ξ (y) = 1 T = 1 T T h h T h 0 e i P n k=1 y kg(t k +h+u) du = e i P n k=1 y kg(t k +h+u) du + 1 T 0 h e i P n k=1 y kg(t k +h+u) du ahol a második integrálban helyettesítsünk u = v T -t, és kihasználva g periódikusságát kapjuk ϕ ξ (y) = 1 T = 1 T T h 0 T 0 e i P n k=1 y kg(t k +h+u) du + 1 T e i P n k=1 y kg(t k +h+u) du T T h e i P n k=1 y kg(t k +h+v) dv = Kézirat, módosítva: 2006. október 24.

126 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK ami éppen (ξ t1 +h, ξ t2 +h,..., ξ tn+h) karakterisztikus függvénye, tehát együttes eloszlása megegyezik. ξ t1, ξ t2,..., ξ tn és ξ t1 +h, ξ t2 +h,..., ξ tn+h Következmények: A folyamat állandó várható értéke szórásnégyzete m = E(ξ t ) = E(ξ 0 ) = 1 T T 0 g(x)dx, σ 2 = D 2 (ξ t ) = D 2 (ξ 0 ) = 1 T T 0 g 2 (x)dx m 2, továbbá a t, s R időpontokhoz tartozó kovariancia függvénye vagyis Γ(t, s) = cov(ξ 0, ξ t s ) = R(t s) = 1 T R(h) = 1 T T 0 T 0 g(x)g(t s + x)dx m 2, g(x)g(h + x)dx m 2 h R. 4. Az előző példa szerint könnyen konstruálhatunk véletlen periódikus folyamatokat a trigonometrikus függvények felhasználásával, melyek megjelenése természetes sok alkalmazás esetén. (a) Legyen tehát az ω -frekvenciájú véletlen harmonikus függvény (az idő-paraméter konstanssal való szorzása nem változtat a stacionárius tulajdonságon): ξ t = 2σ cos(ω t + τ) t R, ahol τ egyenletes eloszlású v.v. a [0, 2π] intervallumban. Ekkor a fentiek szerint (ξ t ) t R stacionárius, és m(t) = 2σ π 2π 0 cos(x)dx = 0 R(h) = σ2 π 2π 0 cos(x) cos(ω h + x)dx = σ 2 cos(ω h) h R. Írjuk most az addíciós képletek felhasználásával ezt a folyamatot az alábbi alakba ξ t = A cos(ωt) + B sin(ωt) t R, ahol az A = 2σ cos(τ) B = 2σ sin(τ)

10.4. STACIONÁRIUS FOLYAMATOK 127 valószínűségi változókra E(A) = E(B) = 2π 0 2π 0 2σ cos(x)dx = 0, 2π 2σ sin(x)dx = 0, 2π cov(a, B) = E(A B) = D 2 (A) = E(A 2 ) = D 2 (B) = E(B 2 ) = 2π 2π 0 0 2π 0 σ 2 π cos(x) sin(x)dx = 0, σ 2 π cos2 (x)dx = σ 2, σ 2 π sin2 (x)dx = σ 2. Az itt szereplő ω, A és B szemléletes jelentéssel bírnak, az előbbi a harmonikus véletlen függvény frekvenciája, az utóbbiak pedig a véletlen fázisszöget (τ) és az amplitudót (ami itt most valójában nem is véletlen, mert A 2 + B 2 = 2σ 2 ) határozzák meg. A jel intenzitásának a D 2 (ξ t ) = 2σ 2 állandó mennyiséget tekinthetjük. Vegyük észre, hogy mindezek már meghatározzák a folyamat várható értékét, és kovariancia függvényét, tehát a következő példa folyamata, ha nem is lesz feltétlenül erős értelemben stacionáris, de gyengén igen. (b) Legyenek A, B valószínűségi változók és E(A) = E(B) = E(A B) = 0, D 2 (A) = D 2 (B) = σ 2, ami teljesül, ha pl. A és B független azonos szórású, 0 várható értékű valószínűségi változó. Ekkor a ξ t = A cos(ωt) + B sin(ωt) t R véletlen harmonikus függvény gyengén stacionáris, várható értéke és kovariancia függvénye: m(t) = 0 t R R(h) = σ 2 cos(ω h) h R. Ha még feltesszük, hogy A és B normális eloszlásúak, akkor a(ξ t ) t R folyamat erősen stacionárius. (c) Mivel a stacionáris tulajdonság megőrződik független folyamatok összegzése esetén, legyenek A k, B k k = 1, 2,... korrelálatlan valószínűségi változók (pl. függetlenek), és legyen D 2 (A k ) = D 2 (B k ) = σ 2 k k = 1, 2,... Kézirat, módosítva: 2006. október 24.

128 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK ekkor a ξ t = k (A k cos(ω k t) + B k sin(ω k t)) t R véletlen harmonikus folyamat gyengén stacionárius, várható értéke és kovariancia függvénye m(t) = 0 t R R(h) = k σ 2 k cos(ω k h) h R. Ha még feltételezzük, hogy az A k, B k k = 1, 2,... valószínűségi változók normális eloszlásúak, a folyamat erős értelemben is stacionárius. Ilyenkor az {ω 1, ω 2, ω 3,...} frekvenciákat a folyamat spektrumának nevezzük, a (σ 2 k ) k mennyiségeket, mivel ezek az egyes frekvenciákhoz tartozó összetevők véletlen amplitudójának mértékei, a véges diszkrét eloszlások analógiájaként a spektrum eloszlásának, a kettőt együt, tehát a ω k σ 2 k hozzárendelést, a folyamat spektrális eloszlásának nevezzük. Ez természetesen nem valószínűségeloszlás, tehát általában k σ2 k 1. A spektrumot alkotó frekvenciákról mindíg feltehető, hogy csak nemnegatív elemei vannak, mert egy ω < 0 frekvencia esetén mindíg írhatjuk: A cos(ωt) + B sin(ωt) = A cos( ωt) + ( B) sin( ωt) ami ismét feltételeinknek megfelelő harmonikus tagot eredményez, az azonos frekvenciához tarozó tagokat természetesen összevonva. Ugyanakkor a spektrumot mint a 0-ra szimmetrikus halmazt is tekinthetjük, és a folyamat) pozitív frekvenciájú ω σ 2 tagjához válasszuk az A 1, A 2, B 1, B 2 N (0; 2 σ független v.v.-kat, amivel a A 1 cos(ωt) + B 1 sin(ωt) + A 2 cos( ωt) + B 2 sin( ωt) szochasztikusan ekvivalens szimmetrikus összetevőkre bontva kapjuk a 0-ra szimmetrikus ±ω k σ2 k 2 spektrális eloszlást. Figyelemre méltó ugyanakkor, hogy a kovariancia függvény ezen spektrális eloszláshoz tartozó karakterisztikus függvény, ami a spektrális eloszlás szimmetrikussága folytán valós értékű lesz, ha ismét a valószínűségszámítási analógiákra utalunk. Általában a stacionáris folyamatok kovariancia függvényének R(h) = ±ω k σ 2 k 2 eiω kh = ω k σ 2 k cos(ω k h) h R, illetve R(h) = + f(ω) 2 eiωh dω = + 0 f(ω) cos(ωh)dω

10.4. STACIONÁRIUS FOLYAMATOK 129 alakú előállítása esetén beszélünk a folyamat ω k σ 2 k ω k 0 illetve ± ω k σ2 k 2 diszkrét spektrális eloszlásáról, illetve az ω f(ω) ω 0 illetve ± ω f(ω) 2 folytonos spekrális eloszlásról, ahol az f függvényt spekrális sűrűségfüggvénynek nevezzük. Utolsó példánkban eljutottunk egy olyan stacionárius folyamathoz, mely sok véletlen jelenség modelljéül szolgálhat. Ha a spektrummal kapcsolatban elmondottakat figyelembe vesszük, azt mondhatjuk, hogy az 1. példa egy 0 σ 2 spektrális eloszlású véletlen harmonikus folyamat, melyhez minden időpontban még hozzáadtunk egy m állandót, mivel ezen indikátor eloszlás karakterisztikus függvénye lesz az R(h) = σ 2 cos(0 h) h R kovariancia függvény. Mivel a 2. példa kovariancia függvénye R(h) = σ2 2π π π e iω h dω = σ2 π π 0 cos(ω h)dω h Z, azt mondhatjuk, hogy a diszkrét fehérzaj spektrális eloszlása egyenletes a [0, π] intervallumon. Tehát minden ω [0, π] frekvencia azonos σ2 σ2, illetve ω [ π, π] esetén π 2π spektrális sűrűséggel vesz részt a folyamat előállitásában. Ezt az előállítást úgy értjük, hogy a ξ t = (A k cos(ω k t) + B k sin(ω k t)) t Z k folyamat előállításában az ω k [0, π] frekvenciák halmazát minden határon túl finomítva, az A k, B k N (0, σ) k = 1, 2,... független valószínűségi változókkal juthatunk olyan véletlen harmonikus Gauss folyamathoz, melynek végesdimenziós eloszlásai tetszőlegesen megközelítik a diszkrét fehérzaj idősorét. Egy már korábban említett példához juthatunk, egy olyan stacionárius (ξ t ) t R Gauss folyamatból, melyre E (ξ t ) = 0 R(h) = a e b h h R. Kézirat, módosítva: 2006. október 24.

130 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK Ekkor R(h) = + 1 π ab b 2 + ω 2 eiωh dω h R tehát a folyamat spektrális sűrűsége ω 1 ab ω R. Ha az a +, b + π b 2 +ω 2 határátmenetet vizsgáljuk úgy, hogy a 1, akkor ez a sűrűség az egész számegyenesen b 2 állandó 1 spektrális sűrűséghez tart, a kovariancia függvény pedig 2π { + ha h = 0 lim R(h) = a,b 0 egyébként ami a korábban már említett, közönséges értelemben nem létező, folytonos fehérzaj folyamat jellemzője. Mindezt megerősíti, hogy ekkor az η t = t ξ t dt t R Gauss folyamatra, az integrálás és várható érték képzést felcserélve, kapjuk 0 E(η t ) = 0 t R és ha t s R cov(η t, η s ) = t s 0 0 ae b u v dudv = 2 a b t + a b 2 ( e bt + e bs e b(s t)) amiből lim cov(η t, η s ) = min{t, s} t, s R, a,b +, a b 1 2 ) tehát a (ξ t ) t R valóban a folytonos fehérzaj, a (Ẇt közelítésének tekinthető. 10.5. Feladatok 1. Mutassuk meg, hogy (ξ t ) t R pontosan akkor Markov folyamat, ha s 1 < s 2 < < s r < t < u 1 < u 2 < < u q R és x 1, x 2,, x r, y 1, y 2,, y q R esetén P (ξ s1 < x 1, ξ s2 < x 2,, ξ sr < x r, ξ u1 < y 1, ξ u2 < y 2,, ξ uq < y q ξ t ) = P (xξ s1 < x 1, ξ s2 < x 2,, ξ sr < x r ξ t ) P (ξ u1 < y 1, ξ u2 < y 2,, ξ uq < y q ξ t ). 2. Mutassuk meg, hogy ha (ξ t ) t R Markov folyamat, akkor s < t < u és x R esetén t R P (ξ u < x ξ s ) = E (P (ξ u < x ξ t ) ξ s ). Következmény: Ha a véges dimenziós peremek

10.5. FELADATOK 131 (a) diszkrét eloszlásúak, akkor P (ξ u = x ξ s = y) = z P (ξ u = x ξ t = z) P (ξ t = z ξ s = y) ; (b) folytonos eloszlásúak, akkor f ξu ξ s (x y) = R f ξu ξ t (x z) f ξt ξ s (z y)dz. 3. Mutassuk meg, hogy (ξ n ) n N idősor pontosan akkor Markov tulajdonságú, ha minden n N és x R esetén P (ξ n+1 < x ξ n, ξ n 1,..., ξ 0 ) = P (ξ n+1 < x ξ n ). 4. Legyen a (ξ n ) n N idősor Markov tulajdonságú, és az állapottér im(ξ n ) = {1, 2,..., n}. Mutassuk meg, hogy a (ξ n ) n N Markov lánc véges dimenziós eloszlásait meghatározzák a Π n+1,n = [ P (ξ n+1 = l ξ n = k) ] k=1,2,...,n l=1,2,...,n R n n un. egy-lépéses átmenet valószínűségek, és a ξ 0 kezdeti állapot eloszlása. 5. Igazoljuk, hogy ha egy homogén Markov láncnak (Π n+1,n = Π n = 0, 1,...) határeloszlása p R 1 n, akkor p stacionárius eloszlás, azaz p Π = p. 6. Egy urnában 3 golyó van, a köztük lévő pirosak számát jelölje a ξ 0 valószínűségi változó. Egymás után véletlenszerűen kiveszünk egy golyót és minden húzás után egy fehéret beteszünk a kivett golyó helyett. Jelölje ξ n az n-edik húzás után az urnában lévő piros golyók számát, n = 1, 2,.... Markov láncot alkot-e a (ξ n ) n N idősor? Ha igen, adjuk meg az átmenetvalószínűségek mátrixát, van-e stacionárius eloszlás? Ha P (ξ 0 = 2) = 1 mennyi a P (ξ 2 1) valószínűség? 7. Legyenek ε 1, ε 2, ε 3,... N 0, 1) függetlenk, és ξ n = n ε k n N + ξ 0 = 0 k=1 Írjuk fel az idősor várható érték és kovariancia függvényét! folyamat növekményei? Milyenek a (ξ n ) n N 8. Legyen ξ t = t (τ 1 2 ) t R ahol τ a [0,1] intervallumin egyenletes eloszlású valószínű ségi változó. Adjuk meg a várható érték és kovariancia függvényeket. Stacionárius-e a (ξ t ) t R folyamat? Kézirat, módosítva: 2006. október 24.

132 10. FEJEZET. SZTOCHASZTIKUS FOLYAMATOK 9. Legyen ξ 0 = 0, ε n N (0, 1) n = 1, 2,... függetlenek, és ξ n+1 = aξ n + ε n+1 n = 0, 1, 2,... Milyen a esetén lesz (ξ n ) n N martingál? Teljesül-e ekkor a Markov tulajdonság? Mutassuk meg, hogy elég nagy N N és a < 1 esetén (ξ n ) n N stacionárius idősor, melynek (folytonos) spektrális eloszlása ω 1 2π 1 ω [0, 2π]. 1 2a cos ω + a 2 Keressük a spektrális sűrűségfüggvényt az alábbi alakban: f(ω) = 1 2π R(0) + 1 π R(n) cos nω ω [0, 2π] n=1 10. Egy Brown-mozgást végző részecske egységnyi időtartam alatti helyváltozásának szórása 0.5. Mennyi annak valószínúsége, hogy 4 időegység alatt a részecske 1.645- nél nagyobb elmozdulást végez? 11. Legyen ξ egyenletes eloszlású a [-1;1] intervallumban, és ξ t = t + ξ t 0. Határozza meg a várható érték és kovariancia függvényeket! Martingál tulajdonságú, ill. stacionárius-e a (ξ t ) t R + folyamat? 0 12. Legyenek ξ 1, ξ 2, ξ 3 N (0; 1), és [ξ 1 ] ha 0 t < 1 η t = [ξ 2 ] ha 1 t < 2 [ξ 3 ] ha 2 t < 3 Adjuk meg (η t ) t [0,3[ várható érték és kovariancia függvényét!.

II. rész Matematikai statisztika 133

11. fejezet A matematikai statisztika alapfogalmai Az úgynevezett statisztikai feladatok olyan valószínűségszámítási problémaként is megfogalmazhatók, ahol a valószínűségi törvény (mérték) nem, vagy csak részben ismert, és egy megfigyelésből (a véletlen kisérlet eredményéből) valamilyen valószínűségszámítási jellemzőre, illtve magára a törvényre (valószínűségi mértékre) kívánunk következtetni. 11.1. Statisztikai mező 11.1. Definíció. Statisztikai mezőnek nevezzük az (X, A, P) hármast, ahol X az un. mintatér, elemei a minták; A a mintatér részeinek egy σ-algebrája; P a lehetséges valószínűségi mértékek halmaza, és P P esetén (X, A, P ) egy valószínűségi mező; Megjegyzések: 1. A mintatér általában R n (vagy R nxp ) lesz, még akkor is ha annak csak egy valódi része következhet be 1-valószínűséggel (minden.p P esetén). Ennek megfelelően az A eseményalgebra mindíg az intervallumokat tartalmazó legszűkebb B n σ-algebra lesz. 2. A statisztikai mezőt diszkrétnek illetve folytonosnak fogjuk nevezni, ha P mértékei diszkrét illetve folytonos valószínűségeloszlásokkal adottak. Példák: 1. Egy valószínűségi változó megfigyelésével kapcsolatos s.m.: X = R (vagy R p ) 135

136 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI A = B 1 (vagy B p ) P P P adott a megfigyelt v.v. F F lehetséges eloszlásfüggvényeivel 2. Egy valószínűségi változó n-ismételt megfigyelésével kapcsolatos s.m.: X = R n (vagy R n p ) A = B n (vagy B n p ) P P P adott a megfigyelt v.v. F F lehetséges (p-dimenziós) eloszlásfüggvényeivel mint szorzat-mérték, tehát P (I 1 I 2... I n ) = [F ] I1 [F ] I2... [F ] In (11.1) ahol P P, I k R(R p ) k = 1, 2,... n intervallumok, vagyis a megfigyelések függetlenek is. 3. Egy valószínűségi változó sorozatos megfigyelésével kapcsolatos s.m.: X = R (vagy R p ) végtelen (vektor-) sorozatok halmaza A = σ {I 1... I n I k R (vagy R p ) intervallum k = 1, 2,..., n n N + } P az előző, 11.1 szerint adott Mindegyik példában az ismeretlen valószínűségi mértéket a megfigyelt (mintavételezett) v.v. F eloszlásfüggvénye határozza meg, ezért a megfelelő mértéket P F jelöli. A lehetséges eloszlásfüggvények F halmazának alkalmas választásával vehetők figyelembe egyéb ismereteink (feltételezéseink). Például egy ismeretlen várható értékű és szórású normális eloszlású (röviden N ( ; )) v.v., vagy ismeretlen várható értékű és ismert σ 0 szórású normális eloszlású (röviden N ( ; σ 0 )) v.v. megfigyeléséről illetve n-ismételt megfigyeléséről beszélhetünk. A 2. és 3. példában a mérték 11.1 megadásából következik az egyes komponensekkel kapcsolatos események függetlensége, ezért beszélhetünk ilyenkor független mintavételezés modelljéről. A 3. példa lényegében tartalmazza az n-ismételt megfigyelés modelljét minden n N + esetén, és lehetővé teszi a statisztikai módszerek aszimptotikus viselkedésének vizsgálatát. Ha a megfigyelt minta alapján következtetni akarunk a valószínűségi törvényre, vagy annak valamely jellemzőjére, azt az utóbbi példa esetén az ismeretlen eloszlásfüggvénnyel kapcsolatban kell megtennünk. Ennek eszköze az un. empirikus eloszlásfüggvény, ami egy skalár v.v. n-ismételt megfigyelése esetén F n x (z) = 1 n n 1 {xk <z} x = (x 1, x 2,..., x n ) R n z R, (11.2) k=1 ami egy rögzített x R n minta esetén egy F n x ( ) : R [0, 1] függvény, ami egy olyan véges diszkrét eloszláshoz tartozó eloszlásfüggvény, amely a minta egy x k komponenséhez annak mintabeli relatív gyakoriságát rendeli, mint bekövetkezési valószínűséget. Ha pedig

11.1. STATISZTIKAI MEZŐ 137 z R rögzített, akkor minden F F esetén n F n (z) : R n {0, 1, 2,..., n} egy n- edrendű F (z)-paraméterű binomiális eloszlású valószínűségi változó. A nagy számok 5.4 Bernoulli törvénye szerint ekkor ε > 0 esetén lim P F ( F n (z) F (z) ε) = 0 n ahol a konvergencia z-ben egyenletes, ugyanis a Csebisev egyenlőtlenség szerint P F ( F n (z) F (z) ε) F (z) (1 F (z)) n ε 2 1 4 n ε 2. (11.3) Tehát igen általános körülmények között mód van az ismeretlen F eloszlásfüggvény fenti értelemben tetszőlegesen pontos közelítésére. Ezt az eredményt a következő, erősebb formában fogalmazhatjuk meg. 11.2. Tétel (A matematikai statisztika alaptétele). Az n ismételt megfigyelés statisztikai modelljében jelölje F a minta elemek közös eloszlásfüggvényét, F n ( ) az empírikus eloszlásfüggvényt, akkor tetszőleges ε > 0 esetén teljesül ( ) lim P F sup F n (z) F (z) ε n z R = 0 (11.4) ahol P F jelöli az F által meghatározott valószínűségi mértéket az R n mintatéren. Bizonyítás. Jelölje n = sup F n (z) F (z), z R és legyen M N + egy pozitív természetes szám, amivel vezessük be az { x k,m = sup x R k 1 2 F (x) < k } M 2 M sorozatot,amivel kapjuk M = 1, 2, esetén k = 1, 2,, 2 M n,m = max { F n k=1,2,,2 M (x k,m ) F (x k,m ) } + n,m = max { F n k=1,2,,2 M (x k,m + 0) F (x k,m + 0) } n,m = max { n,m, } + n,m valószínűségi változók monton növekvő, korlátos sorozatát, melyekre teljesül n,m n n,m + 1 2 M (11.5) Kézirat, módosítva: 2006. október 24.

138 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI tehát n = lim M n,m valószínűségi változó. A valószínűség szubadditív tulajdonságát és a 11.3 egyenlőtlenséget használva, elég nagy M esetén ( P F ( n ε) P F n,m + 1 ) 2 ε M + 2 M k=1 2 M k=1 amiből következik az állítás. P F ( F n (x k,m ) F (x k,m ) ε 1 2 M ) + P F ( F n (x k,m + 0) F (x k,m + 0) ε 1 2 M ) 2 M 1 1 n ( ε 1 2 M ) 2 11.3. Megjegyzés. Eredményünket a sorozatos (3. példa) mintavételezés statisztikai modelljében úgy is fogalmazhatjuk, hogy n sztochasztikusan konvergál 0-hoz, illetve a 11.5 egyenlőtlenségből, a nagy számok erős törvénye segítségével azt kapjuk, hogy n majdnem biztosan konvergál 0-hoz. 11.2. Statisztikák Statisztikai következtetéseink leggyakoribb eszközei a mintából számolható különböző menynyiségek lesznek. 11.4. Definíció. Statisztikának nevezzük a t : X R q függvényt, ha t valószínűségi változó az (X, A, P ) valószínűségi mezőben (minden P P esetén). A statisztikák tehát a valószínűségi változók szerepét töltik be, és mibenlétük szempontjából közömbös a lehetséges valószínűségi mértékek P halmaza. Valószínűségszámítási jellemzőik azonban függhetnek a P P választástól, mint pl. a várható érték, szórás, eloszlás, stb., de lehetnek a P P válsztástól függetlenek is, mint pl. statisztikákat egyszerűen függetleneknek, azonos eloszlásúaknak, stb. nevezünk, ha függetlenek, azonos eloszlásúak, stb. minden P P esetben. Ha q = 1, skalár statisztikáról, egyébként vektor statisztikáról beszélünk. Amint a vektor valószínűségi változóknál is, most is elég általában a skalár eset vizsgálata, mivel vektor statisztika komponensei mindíg skalár statisztikák. A fenti F. n (z) pl. egy skalár statisztika minden z R esetén. A sorozatos megfigyelés (3. példa) modelljében csak olyan statisztikák lesznek fontosak számunkra, melyek véges sok megfigyeléstől (minta elemtől) függnek, ezeket megengedett statisztikának nevezzük.

11.2. STATISZTIKÁK 139 Nevezetes statisztikák: 1. Ha a mintatér R, vagy R n, a ξ = id X : X X x x függvényt minta statisztikának nevezzük, és n > 1 esetén a ξ k : X R (x 1, x 2,..., x k,..., x n ) x k komponens függvényeket k = 1, 2,..., n; minta elem statisztikáknak nevezzük. 2. Az n-ismételt megfigyelés modelljében felírt empirikus eloszlásfüggvényhez tartozó várható érték ξ : X R (x1, x 2,..., x k,..., x n ) x = 1 n n k=1 x k az átlag statisztika; szórás s : X R (x 1, x 2,..., x k,..., x n ) s(x) = 1 n n (x k x) 2 k=1 az empirikus szórás statisztika. 3. Ugyancsak az n-ismételt megfigyelés modelljében használatosak még az alábbiak: rendezett minta ahol rendezett minta elemek a minta terjedelme ξ : X R (x 1, x 2,..., x n ) (x 1, x 2,..., x n) x 1 = x k1 = min {x 1, x 2,..., x n } x 2 = x k2 = min {x 1, x 2,..., x k1 1, x k1 +1,..., x n }. ξ 1 : X R (x 1, x 2,..., x n ) x 1 ξ 2 : X R (x 1, x 2,..., x n ) x 2. R : X R (x 1, x 2,..., x n ) x n x 1 Kézirat, módosítva: 2006. október 24.

140 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI medián me : X R { x k + x k+1 ha n = 2k x = (x 1, x 2,..., x n ) 2 x k+1 ha n = 2k + 1 A 2. és 3. -ban felsorolt statisztikák a sorozatos megfigyelés modelljében is megfogalmazhatók minden n N + estén, és teljesítik azt a nyilvánvaló követelményt, hogy értékük véges sok minta elemből számolható, tehát megengedettek. A fenti statisztikákat a későbbiekben hasonló jelöléssel használjuk, és mint más esetben is, gyakran írjuk azokat a minta, iletve minta elem statisztikák függvényeként, pl.: ξ = 1 n 11.3. Paraméterek n i=1 ξ i s 2 = 1 n n ξ 2 i ξ 2 i=1 ξ n = max{ξ 1, ξ 2,..., ξ n } Fξ n (z) = 1 n 1 {ξi <z} z R. n i=1 Statisztikai következtetéseink célja sok esetben az ismeretlen valószínűségi mérték valamilyen mennyiségi jellemzője, paramétere. 11.5. Definíció. i) Paraméternek nevezzünk egy ϑ : P R q függvényt. Ha q = 1 skalár, egyébként vektor paraméterről beszélünk. ii) Ha a ϑ paraméter invertálható, akkor meghatározó paraméternek nevezzük. Ekkor a lehetséges mértékek ϑ értékkészletének elemeivel azonosíthatók, jelölésben P y ha y im(ϑ). Nevezetes paraméterek: 1. A mintákkal kapcsolatos A A esemény valószínűsége: 2. Legyen t egy skalár statisztika, akkor várható értéke az P(A) : P R P P (A). E(t) : P R P E P (t) paraméter, ahol E p jelöli a P valószínűséggel számolt várható értéket;

11.4. LIKELIHOOD FÜGGVÉNY 141 szórása a D(t) = E ( (t E(t)) 2) paraméter; feltéve az itt szereplő várható értékek létezését minden P P esetén. 3. Egy v.v. megfigyelésével kapcsolatos modellben a minta statisztika várható értéke és szórása m = E(ξ) σ = D(ξ), illetve az n-ismételt megfigyelés esetén a minta elemek közös várható értéke és szórása m = E(ξ k ) σ = D(ξ k ), a megfigyelt (mintavételezett) v.v. várható értéke és szórása paraméterek, amit a továbbiakban mindíg m illetve σ jelöl majd, természetesen feltételezve a szükséges várható értékek létezését. Egy paraméter kapcsán fontos lesz számunkra, hogy hogyan függ értéke az ismeretlen mértéktől. Egy normális eloszlású (N (.,.)) v.v. megfigyelése esetén pl. az eloszlás várható érték és szórás paramétere (m, σ) meghatározó, tehát minden paraméter vele kifejezhető, mint pl. ( ) x m P(ξ < x) = Φ σ ahol ξ a minta statisztika (vagy egy minta elem az n-ismételt megfigyelés esetén), és x R. 11.4. Likelihood függvény Statisztikai következtetéseinket a Bayes döntés analógiájaként, annak alapján fogalmazhatjuk meg, hogy egy megfigyelt minta esetén melyik valószínűségi mérték a legvalószínűbb. Ehhez szükségünk van a megfigyelt minta (feltételes) valószínűségét megadó függvényre. 11.6. Definíció. Likelihood függvénynek nevezzük azt az függvényt, melyre L : X P R i) diszkrét statisztikai modell esetén, amikor is egy P P mérték az {x 1, x 2,...} X megszámlálható halmaz elemeihez tartozó diszkrét valószínűségeloszlással adott, L (x; P ) = P ({x}) x X, P P; Kézirat, módosítva: 2006. október 24.

142 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI ii) folytonos statisztikai modell esetén, amikor is egy P P mérték egy f valószínűségi sűrűségfüggvénnyel adott (jelölésben: P f ), L (x; P f ) = f(x) x X, P f P; Az L(.,.) olyan két -változós függvény, melynek parciális függvényei: rögzített P P esetén L(., P ) : X R + 0 egy statisztika; rögzített x X esetén L(x,.) : P R + 0 egy paraméter, ami megadja az x megfigyelt minta valószínűségét, illetve egy kis környezetének valószínűségével arányos értéket; A likelihood függvényt, ha van ϑ meghatározó paraméter, annak függvényeként is írhatjuk, mint L : X im(ϑ) R típusú függvényt. Természetesen más meghatározó paramétert válsztva, más alakhoz jutunk, ezért ilyenkor mindíg megnevezzük azon paramétert, amelynek függvényeként írtuk a likelihood függvényt. Vizsgáljuk most azt a legegyszerűb esetet, amikor a lehetséges valószínűségekből pontosan kettő van, P = {P 1, P 2 }, és tekintsük az L(., P i ) -ket i = 1, 2, mint feltételes eloszlásokat illetve sűrűségfüggvényeket két egyenlő valószínűségű eseményre vonatkozóan, melyek jelzik, hogy melyik valószínűségi mérték az igazi. Ekkor a Bayes-döntés szerint P 1 -et választjuk egy, x X esetén, ha L(x, P 1 ) > L(x, P 2 ) illetve P 2 -t egyébként. Ha P tetszőleges, ezen elv alapján bármely két valószínűségi mértékről eldönthető egy x megfigyelt minta esetén, hogy melyik a valószínűbb, és ha van olyan P P melyre L(x, P ) L(x, P ) P P, akkor választásunk nyilván P lesz. Ezt a módszert a legnagyobb valószínűség elvének nevezzük. A következő tétel a független mintavételezés esetén ezen elv aszimptotikusan jó tulajdonságát mondja ki. 11.7. Tétel. Legyen az n-ismételt megfigyelés modelljében L (n) n = 1, 2,... az első n megfigyeléshez tartozó likelihood függvény. Legyen továbbá P 1 P 2 P melyekre az L(., P i ) = L (1) (., P i ) i = 1, 2 statisztikák pozitívak, és a z = ln L(., P 1) L(., P 2 )

11.4. LIKELIHOOD FÜGGVÉNY 143 statisztikának létezzen szórása P 1 és P 2 esetén. Jelölje továbbá η n (x) = ln L(n) (x, P 1 ) L (n) (x, P 2 ) = akkor teljesül K R esetén: n z(x i ) x = (x 1, x 2,..., x n ) X n, i=1 lim P 1(η n > K) = 1 illetve lim P 2 (η n < K) = 1 n n Bizonyítás. Jelölje ξ 1, ξ 2,..., ξ n az első n megfigyeléshez tartozó minta elemeket, akkor a ζ i = z(ξ i ) i = 1, 2,... n statisztikák azonos eloszlásúak és függetlenek. Közös várható értéküket és szórásukat P 1 illetve P 2 esetén jelölje µ i = E Pi (ζ k ), δ i = D Pi (ζ k ) i = 1, 2. Ekkor δ i > 0 i = 1, 2, mert különben, L(., P 1 ) = L(., P 2 ) következne pl. P 2 szerint 1 valószínűséggel, ami ellentmond a P 1 P 2 feltételnek. Most megmutatjuk, hogy µ 2 < 0. Az ln(t) t 1 t R + egyenlőtlenséget használva, kapjuk ζ k L(ξ k, P 1 ) L(ξ k, P 2 ) 1 amiből pl. folytonos statisztikai mező esetén a várható érték monotonitását használva L(u, P 1 ) µ 2 L(u, P 2 ) L(u, P 2)du 1 = 0, R ahol egyenlőség δ 2 > 0 miatt nem lehet. Tehát µ 2 < 0, és ζ k = ln L(ξ k,p 2) L(ξ k,p 1 ) E P1 ( ζ k ) = µ 1 < 0 µ 1 > 0. miatt kapjuk Jelölje továbbá η 0 = 0, akkor az (η n ) n N idősor független és stacionárius növekményű, és amiből 10.3 szerint következik Hasonlóan kapjuk E P1 (η n ) = µ 1 n D P1 (η n ) = δ 1 n n N lim P 1(η n > K) = 1. n lim P 2( η n > K) = 1 lim P 2 (η n < K) = 1. n n Kézirat, módosítva: 2006. október 24.

144 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI Az állítás lényegében azt fejezi ki, hogy a különböző valószínűségi mértékekhez tartozó likelihood függvény értékek közül az a nagyobb, és ez a relatív különbség a mintavétel számának növelésével minden határon túl nő, azaz L(., P 1 ) L(., P 2 ) n { + P1 esetén 0 P 2 esetén, amely az igazi mértékhez tartozik. Tehát elég sok megfigyelést tartalmazó x minta esetén bízhatunk abban, hogy a likelihood függvény az igazi valószínűségi mértékkel adja a legnagyobb értéket. Az állítás alapján az is világos, hogy ha két P 1 és P 2 valószínűségi mérték közül kell választanunk egy x X alapján, akkor a két mértékhez tartozó likelihood függvény értékek hányadosa alapján érdemes döntenünk. A likelihood függvény sajátos alakja esetén mód van arra is, hogy statisztikai következtetéseink meghozatalához kiválasszunk bizonyos statisztikákat, melyek ismerete a fenti típusú döntésekhez elégséges. 11.8. Definíció. A T : X R k statisztikát elégségesnek nevezzük, ha a likelihood függvény az alábbi alakban írható: L(x, P ) = g(t (x), P ) f(x) /x X, P P/. A definíció alapján, két P 1 és P 2 közötti választáshoz elég ismerni a T statisztika értékét, mert a likelihood függvény értékeinek hányadosa csak ettől függ. Természetesen a definíció szerint a minta statisztika nyilvánvalóan elégséges, de ilyen a független mintavétel modelljében a rendezett minta is. A következő állítás azt fejezi ki, hogy az elégséges statisztika értékének ismeretében a mintatér eseményeinek (feltételes) valószínűsége, és statisztikák (feltételes) várható értéke már nem függ P P válaszásától, tehát bekövetkezésük, illetve értékük nem ad további információt az ismeretlen valószínűségi mértékről. 11.9. Tétel. Legyen η egy tetszőleges, és T egy elégséges statisztika. Akkor az E(η T ) feltételes várható érték megadható úgy, hogy nem függ a P P választástól. Bizonyítás. Bizonyítás nélkül felhasználjuk a következő segédtételt: 11.10. Lemma. Ha az (X, A, P) statisztikai mező esetén megadható az L likelihood függvény, akkor választható egy olyan (P n ) n=1,2,... P sorozat, melyre teljesül az alábbi tulajdonság minden A A eseménnyel kapcsolatban: P (A) = 0 P P P n (A) = 0 n = 1, 2,..., aminek következményeként megadható a P = 1 n=1 P 2 n n valószínűségi mérték, mellyel P (A) = 0 P P P (A) = 0.

11.5. FELADATOK 145 Feltehetjük, hogy η skalár értékű, és pl. a diszkrét statisztikai modellben bizonyítjuk az állítást. Bővítsük P-t és a likelihood függvény értelmezési tartományát a lemma szerinti P valószínűségi mértékkel, tehát L(x, P ) = g(t (x), P ) f(x) x X ahol g(t (x), P ) = 1 2 g(t (x), P n) x X. n n Ekkor a fenti lemma szerinti P valószínűségi mértékre vonatkozó feltételes várható értéket jelölje: t = E P (η T ) Legyen P P, és h egy tetszőleges skalár értékű függvény, akkor kapjuk E P ((η t) h T ) = (η(x) t(x)) h(t (x))g(t (x), P ) f(x) = x X h(t (x)) g(t (x),p ) = (η(x) t(x)) g(t (x), P ) f(x) = 0 g(t (x),p ) 0 g(t (x),p ) a P -re vonatkozó feltételes várható érték ortogonalis tulajdonsága miatt. Ez pedig azt jelenti, hogy t teljesíti a P -re vonatkozó feltételes várható érték hasonló tulajdonságát, vagyis E P (η T ) = t. 11.5. Feladatok 1. Emberek magasságának n = 10 megfigyeléséből kaptuk az alábbi mintát: 182 176 168 192 184 174 185 182 175 190 [cm] Ajuk meg az empirikus eloszlásfüggvényt, számítsuk ki a nevezetes statisztikák értékeit! 2. Legyen a statisztikai modell egy { F (x) = 0 ha x 0 1 e αxβ ha 0 < x eloszlásfüggvényű v.v. n-ismételt megfigyelésével kapcsolatos. (a) Írjuk fel a likeihood függvényt az α, β pozitív paraméterek függvényeként! (b) Keressünk elégséges statisztikát! 3. Írjuk fel a likelihood függvényt a megfelelő paraméter(-ek) függvényeként (a) Bin(n i ; ) i = 1, 2,..., N eloszlássú (azonos valószínűség paraméterrel) v.v. megfigyelése esetén; Kézirat, módosítva: 2006. október 24.

146 11. FEJEZET. A MATEMATIKAI STATISZTIKA ALAPFOGALMAI (b) egy Po ( ) eloszlássú v.v. egy illetve n-ismételt megfigyelése esetén; (c) egy Exp( ) eloszlássú v.v. n-ismételt megfigyelése esetén; (d) egy N ( ; ) eloszlássú v.v. n-ismételt megfigyelése esetén; Keressünk elégséges statisztikát! 4. Egy Po( ) eloszlású v.v. n-ismételt megfigyelése esetén adjuk meg a ( ) n P ξ j = k ξ i = K feltételes eloszlást! 5. Egy U(0; ) eloszlású v.v. n-ismételt megfigyelése esetén, mutassuk meg, hogy ξ n elégséges, és adjuk meg a P(ξ k < x ξ n = ) feltételes eloszlást, és feltételes várható értéket! i=1 E(ξ k ξ n = )

12. fejezet Paraméterbecslés 12.1. Pontbecslés Statisztikai feladatainkban többnyire egy paraméter ismeretlen értékére kell következtetnünk a megfigyelt mintából. 12.1. Definíció. A ϑ : P R p paraméter becslésének nevezzünk egy t : X R p statisztikát. Jelölése: ϑ t. Egy ilyen ϑ t becslést úgy alkalmazunk, hogy x X megfigyelt minta esetén a ϑ paraméter értékét a becslő t statisztika t(x) értékével azonosítjuk, pontosabban azzal közelítjük. Jelölése: ϑ t(x). Természetesen egy paraméter számára több becslés is adható, melyek közül az alábbi tulajdonságok alapján válszthatunk. Mivel vektor paraméter komponenseinek becslése a becslő vektor statisztika megfelelő komponense, elegendő skalár paraméterek becsléseinek vizsgálata. 12.2. Definíció. A ϑ skalár paraméter ϑ t i) becslését torzítatlannak nevezzük, ha E(t) = ϑ; ii) torzítatlan becslésének hatékonyságát a becslés D(t) standard hibájával mérjük. iii) Ha a ϑ skalár paraméter becslése az n-ismételt megfigyelés modelljében ϑ t n n = 1, 2,..., és minden ε > 0 esetén lim P ( t n ϑ ε) = 0, n akkor ezt a becslést, pontosabban becslés-sorozatot konzisztensnek nevezzük. A konzisztencia ellenőrzéséhez torzítatlan becslések esetén használjuk az alábbi állításban megfogalmazott elégséges feltételt. 147

148 12. FEJEZET. PARAMÉTERBECSLÉS 12.3. Állítás. Ha a ϑ skalár paraméter becslése az n-ismételt megfigyelés modelljében ϑ t n n = 1, 2,... torzítatlan, és akkor a becslés-sorozat konzisztens. lim D(t n) = 0, n Bizonyítás. A Csebisev egyenlőtlenség szerint, ha ε > 0 akkor amiből következik az állítás. P ( t n E(t n ) ε) D2 (t n ) ε 2, A továbbiakban felsorolunk néhány gyakran használt becslést, és megvizsgáljuk tulajdonságait. 1. Valószínűség becslése. (a) Visszatevéses mintavétel, Bernoulli kísérlet. Egy ismeretlen valószínűségű esemény n-ismételt megfigyelése esetén legyen a s.m. egy Bin(n; ) eloszlású v.v. megfigyelésével kapcsolatos. Jelölje Vizsgáljuk a ξ a minta statisztikát; p a valószínűség paramétert; p ξ n becslést. Mivel E ( ) ξ = p D n ( ) ξ = 1 p (1 p), n n a becslés torzítatlan és konzisztens. A hatékonyság mértéke, a becslés standard hibája függ az ismeretlen paramétertől, de 1 1 p (1 p) n 2 n, ezért tervezhető, vagyis megadható a megfigyelések n száma úgy, hogy a standard hiba egy kívánt érték alatt maradjon. A standard hiba becslésére a valószínűség becslését használva kapjuk: ( ) ξ D 1 ξ n n n ( 1 ξ ). n

12.1. PONTBECSLÉS 149 (b) Visszatevés nélküli mintavétel. Legyen a s.m. egy Hip(N,, n) eloszlású v.v. megfigyelésével kapcsolatos. Jelölje ξ a minta statisztikát; p = M a valószínűség paramétert, N ahol M az alapsokaság megjelölt egyedeinek (ismeretlen) száma; Vizsgáljuk a becslést. Mivel E ( ) ξ = p D n p ξ n ( ) ξ = 1 [ p (1 p) 1 n 1 ], n n N 1 a becslés torzítatlan és konzisztens abban az értelemben, hogy n növelésével a standard hiba csökken, és n = N esetben D ( ξ n) = 0. A hatékonyság mértéke, a becslés standard hibája függ a p paramétertől, de most is teljesül 1 1 p (1 p) n 2 1 n 1 n N 1, ezért tervezhető, pontosabban felső határa előre megadható. hiba becslésére a valószínűség becslését használva kapjuk: ( ) ξ D 1 ( ξ n n n 1 ξ ) [ 1 n 1 ]. n N 1 A standard 2. A várható érték és szórás becslése. (a) Mintavétel visszatevéssel, illetve végtelen alapsokaságból. Egy ismeretlen várható értékű és szórású v.v. n-ismételt megfigyelése esetén jelölje ξ = (ξ 1, ξ 2,..., ξ n ) a minta statisztikát; m a várható érték paramétert; σ a szórás paramétert; Vizsgáljuk az empirikus eloszlásfüggvény várható értékét illetve szórását adó átlaggal illetve empirikus szórással nyerhető m ξ σ 2 s 2 becsléseket. Mivel a minta elemek függetlenek, azonos eloszlásúak, közös várható értékük m, szórásuk σ, E( ξ) = m D( ξ) = σ n. Kézirat, módosítva: 2006. október 24.

150 12. FEJEZET. PARAMÉTERBECSLÉS Az első becslés tehát torzítatlan és konzisztens, de ( E(s 2 1 n ( ) = E ξi n ξ ) ) ( 2 1 n [ = E (ξi m) ( ξ ) )] 2 m n i=1 i=1 = 1 n ] [σ 2 σ2 = n n n n 1 σ2, (12.1) i=1 tehát az utóbbi becslés torzított. Ez a torzítás azonban korrigálható, és a becslés már torzítatlan, ahol s = 1 n 1 n k=1 σ 2 s 2 ( ξk ξ )2 = n n 1 s az un. korrigált empirikus szórás statisztika. Használjuk ezt az átlag standard hibájának becslésére: D( ξ) s n. (b) Minatvétel véges alapsokaságból visszatevés nélkül. Egy X = {X 1, X 2,..., X N } R véges halmazból visszatevés nélkül választott n-elemű minta esetén jelölje ξ = (ξ 1, ξ 2,..., ξ n ) a minta statisztikát; m = X = 1 N N i=1 X i a várható érték paramétert; ( σ = S X = Xi X ) 2 a szórás paramétert; 1 N N i=1 Mivel a minta elemek közös eloszlása P(ξ k = X i ) = 1 N k = 1, 2,..., n i = 1, 2,..., N és P(ξ k = X i, ξ l = X j ) = 1 N(N 1) k l = 1, 2,..., n i j = 1, 2,..., N egyszerű számolással kapjuk (lásd: 78. oldal 2. feladat): E(ξ k ) = m D(ξ k ) = σ k = 1, 2,..., n és σ2 cov(ξ k, ξ l ) = N 1 k l = 1, 2,..., n

12.1. PONTBECSLÉS 151 amiből E( ξ) = m D( ξ) = σ n 1 n 1 N 1. Tehát az m ξ becslés torzítatlan, és standard hibája n N esetén nullához közeledik. Az 12.1 szerinti módon számolva az empirikus szórásnégyzet várható értékét E(s 2 ) = σ 2 n 1 n N N 1, tehát a σ 2 s 2 becslés most is torzított, de korrigálhatóan, vagyis σ 2 n n 1 N 1 N s2 s 2 már torzítatlan becslés, ahol az N 1 korrekció elhanyagolásával nyerjük a N korábbi s 2 becslést. Ezt használva kapjuk a várható érték becslésének standard hibájára: D( ξ) s 1 n 1 n N 1. Megjegyzés: Ha az X véges sokaság elemei nem mind különböznek, de választásuk valószínűsége arányos az ismétlődések számával, eredményeink változatlanul érvényesek. 3. Kovariancia becslése (a) Mintavétel visszatevéssel, illetve végtelen alapsokaságból. Egy (ismeretlen eloszlású) kétdimenziós v.v.v. n-ismételt megfigyelése esetén jelölje (ξ, η) = ((ξ 1, η 1 ), (ξ 2, η 2 ),..., (ξ n, η n )) a minta statisztikát; m 1, m 2 a két várható érték paramétert; σ 1, σ 2 a két szórás, illetve σ 12 kovariancia paramétert; A fentiekhez hasonlóan kaphatjuk a kovariancia becslésére σ 12 s 12 = 1 n n ( ξi ξ ) (η i η) = 1 n i=1 n ξ i η i ξ η, i=1 ahol s 12 az un. empirikus kovariancia statisztika, ξ = 1 n n i=1 ξ i illetve η = 1 n n i=1 η i a megfelelő minta elemek átlagai, az m 1 illetev m 2 paraméterek becslései. Vizsgáljuk most a becslés torzítatlanságát, kihasználva a minta elem párok függetlenségét, az 12.1-ben alkalmazott módon kapjuk: E(s 12 ) = n n 1 σ 12. Kézirat, módosítva: 2006. október 24.

152 12. FEJEZET. PARAMÉTERBECSLÉS Tehát most is torzított becslést kapunk, de a σ 12 s 12 = n n 1 s 12 korrigálással ismét torzítatlan becsléshez jutunk. (b) Minatvétel véges alapsokaságból visszatevés nélkül. Egy XY = {(X 1, Y 1 ), (X 2, Y 2 ),..., (X N, Y N )} R 2 véges halmazból visszatevés nélkül választott n-elemű minta esetén jelölje (ξ, η) = ((ξ 1, η 1 ), (ξ 2, η 2 ),..., (ξ n, η n )) a minta statisztikát; m 1 = X = 1 N N i=1 X i m 1 = Ȳ = 1 N N i=1 Y i 1 σ 1 = S X = N ( N i=1 Xi X ) 2, 1 σ 2 = S Y = ( N N i=1 Yi Ȳ ) 2, σ 12 = S XY = 1 N ( N i=1 Xi X ) (Y i Ȳ ) Mivel a minta elemek közös eloszlása most a két várható érték paramétert; a két szórás, és a kovariancia paramétert; P(ξ k = X i, η k = Y i ) = 1 N k = 1, 2,..., n i = 1, 2,..., N és 1 P(ξ k = X i, η k = Y i, ξ l = X j, η l = Y j ) = N(N 1) k l = 1, 2,..., n i j = 1, 2,..., N a 2b pontban leírtakhoz hasonlóan kapjuk az s 12 = 1 n n ( ξi ξ ) (η i η) = 1 n i=1 empirikus kovariancia statisztikára: E(s 12 ) = σ 12 n 1 n n ξ i η i ξ η i=1 N N 1. Tehát a σ 12 s 12 becslés most is torzított, de korrigálhatóan, vagyis σ 12 n n 1 N 1 N s 12 s 12 = n n 1 s 12 már torzítatlan becslés, ahol az N 1 korrekció elhanyagolásával nyerjük a N korábbi s 12 becslést. Megjegyzés: Hasonlóan a 2b pont utáni megjegyzéshez, most is érvényesek maradnak eredményeink, ha az XY véges sokaság elemei nem mind különböznek, de választásuk valószínűsége arányos az ismétlődések számával.

12.2. BECSLÉSEK HATÉKONYSÁGA 153 Megjegyzés: A kovariancia most kapott becsléséből kaphatjuk a korrelációs együttható becslését r = σ 12 ˆr = s 12 = s 12 σ 1 σ 2 s 1 s 2 s 1 s 2 használva a szórások becslését. Hasonlóan nyerhetők a kovarianciák becsléséből a regressziós feladatokban megismert további paraméterek. Azok ugyanis a varianciákkal (szórásnégyzetekkel), várható értékekkel és kovarianciákkal kifejezhetők, így az itt megadott becslések megfelelő kifejezéseivel becsülhetők. 12.2. Becslések hatékonysága Az alábbiakban becslések hatékonyságát, pontosabban torzítatlan becslések standard hibáját vizsgáljuk, és megmutatjuk, hogy a legnagyobb valószínűség elve alapján nyerhető becslések általában a leghatékonyabbak. 12.2.1. Maximum likelihood becslés A legnagyobb valószínűség elve segítségével becsléseket kaphatunk. 12.4. Definíció. Legyen a ϑ meghatározó paraméter, és irjuk a likelihood függvényt ennek függvényeként: L(., ϑ) : X R + 0. A t : X im(ϑ) statisztikát a ϑ paraméter maximum liokelihood becslésének nevezzük, ha x X esetén teljesül: Megjegyzések: L(x, t(x)) L(x, y) y im(ϑ). 1. Tehát ilyen becslés úgy nyerhető, hogy egy x X megfigyelt mintához olyan értéket rendelünk, mely az L(x,.) : im(ϑ) R + 0 függvény globális maximum helye, természetesen csak ha van ilyen. 2. Ha van elégséges statisztika, akkor a likelihood becslés az elégséges statisztika függvényeként adható meg. 3. Könnyen ellenőrzhető, hogy a valószínűség becslése a relatív gyakorisággal, továbbá normális eloszlású v.v. n-ismételt megfigyelése esetén az maximum likelihood becslések. m ξ σ s 4. Fontos észrevétel továbbá, hogy ha ϑ t maximum likelihood becslés, akkor h(ϑ) h(t) is az, minden kölcsönösen egyértelmű, im(ϑ)-n értelmezett h függvény esetén. Kézirat, módosítva: 2006. október 24.

154 12. FEJEZET. PARAMÉTERBECSLÉS 12.2.2. Hatékonyabb becslés mint az elégséges statisztika függvénye 12.5. Tétel. Legyen a ϑ skalár paraméter t bcslése torzítatlan, és legyen T elégséges statisztika. Akkor a t = E(t T ) feltételes várható érték, mely nem függ a valószínűségi mértéktől, tehát a t statisztika, hatékonyabb becslése a ϑ paraméternek. Bizonyítás. A 11.9. tétel szerint t statisztika megadható (ϑ-tól nem függő módon), várható értéke pedig, mint feltételes várható érték várható értéke: E(t ) = E (E(t T )) = E(t) = ϑ tehát ϑ t torzítatlan becslés. szerint: Az eredeti becslés szórásnégyzetét írjuk az alábbiak D 2 (t) = E [ ((t t ) + (t ϑ)) 2] = = E [ (t t ) 2] + D 2 (t ) D 2 (t ) ahol felhasználtuk a feltételes várható érték ortogonális tulajdonságát P P esetén E P [(t t )h T ] = 0. ahol h(y) = E P (t T = y) ϑ(p ). Tehát a hatékonyabb torzítatlan becslést az elégséges statisztika függvényeként érdemes keresni, és a maximum likelihood becslés mindíg ilyen lesz, ha nem is mindíg torzítatlan. A bizonyításból az is kiderül, hogy a standard hiba csökkentése annál nagyobb, minél egyszerűbb, de még elégséges, úgynevezett szükséges statisztikára vetítünk, mivel ekkor számíthatunk nagyobb maradék szórásra, és így kisebb standard hibára. 12.2.3. A hatékonyság információs határa A továbbiakban feltesszük, hogy ϑ egy meghatározó paraméter (p-dimenziós), ξ jelöli a minta statisztikát, és a likelihood függvényt ϑ-függvényeként írva az egész mintatéren pozitív L(x; ϑ) > 0 x X, és léteznek a paraméter szerinti, alábbiakban szereplő parciális deriváltak. Amint azt már vizsgáltuk, két ϑ, ϑ paraméter közül a választás egy x X megfigyelt minta esetén az L(x; ϑ) és L(x; ϑ ) közti különbségtől függ. Különösen fontos ennek mértéke ha ϑ, ϑ R p két közeli paraméter érték. Ezen különbség változásának relatív mértéke egy ϑ paraméter értékből indulva az : x X megfigyelt minta esetén (a derivált-vektort sorvektorként írva): S(x; ϑ) = D ϑl(x; ϑ) = D ϑ ln (L(x; ϑ)) R 1 p L(x; ϑ) Mivel, például diszkrét esetben, 1 = E(1) = x X L(x; ϑ), ha a ϑ-szerinti driválás és az összegzés felcserélhető, kapjuk 0 = E (S(ξ; ϑ)) R 1 p.

12.2. BECSLÉSEK HATÉKONYSÁGA 155 = D ϑ ln L(.; ϑ) (vektor) statisztika komponensei véletlen ingadozásának várható értéke tehát a ϑ-val kapcsolatban nyerhető információ mértékének tekinhető, ezért az A D ϑl(.;ϑ) L(.;ϑ) I(ϑ) = E ( S(ξ; ϑ) S(ξ; ϑ) T ) = = cov (S(ξ; ϑ), S(ξ; ϑ)) R p p várható értéket, ha létezik, Fisher féle információ mátrix nak nevezzük. Vegyük észre, hogy az n-független megfigyelés modelljében S(ξ; ϑ) = D ϑ ln L(ξ 1, ξ 2,, ξ n ; ϑ) = n D ϑ ln L 1 (ξ i ; ϑ), i=1 ahol L 1 jelöli az n = 1 megfigyeléshez tartozó likleihood függvényt, az összeg tagjai függetlenek, ezért az egy megfigyelt értékhez tartozó I 1 (ϑ) információs mátrixból kapjuk: I(ϑ) = n I 1 (ϑ). Az információs mátrix megkapható a likelihood függvény másodrendű parciális deriváltjaiból is, nevezetesen a B(x; ϑ) = D ϑ S(x; ϑ) R p p deriválással kapható B(ξ; ϑ) véletlen mátrix várható értéke, például folytonos modell esetén, feltételezve a deriválás és integrálás sorrendjének felcserélhetőségét: 1 [ E (B(ξ; ϑ)) = Dϑ D ϑ L(x; ϑ) L(x; ϑ) D ϑ L(x; ϑ) T D ϑ L(x; ϑ) ] dx = X L(x; ϑ) ( ) T Dϑ L(x; ϑ) = D ϑ D ϑ L(x; ϑ)dx DϑL(x; ϑ) L(x; ϑ)dx = I(ϑ) L(x; ϑ) L(x; ϑ) X X Feltételezzük továbbá, hogy I(ϑ) reguláris, tehát létezik az I(ϑ) 1 inverz mátrix és a deriválás és várható érték képzés (összegzés ill. folytonos esetben integrálás) a továbbiakban is felcserélhető. Ekkor az I(ϑ) mátrix segítségével becslések hatékonyságára nyerhetünk korlátot. Legyen ugyanis a ϕ : R p R q 1 egy differenciálható függvény, és a t : X R q 1 statisztika a ϕ(ϑ) paraméter (komponensenként) torzítatlan becslése. Ekkor feltételezésünk szerint, és felhasználva, hogy kapjuk: 0 q p = ϕ(ϑ) E (S(ξ; ϑ)) = E (ϕ(ϑ) S(ξ; ϑ)) R q p D ϑ ϕ(ϑ) = D ϑ E(t) = E ((t ϕ(ϑ)) S(ξ; ϑ)) R q p. Az áttekinthetőség érdekében jelölje η = S(ξ; ϑ) T, ekkor E(t) = 0 q 1 R q 1, E(η) =0 p 1 R p 1, cov(t, η) = D ϑ ϕ(ϑ) R q p, cov(η, η) = I(ϑ) R p p. Kézirat, módosítva: 2006. október 24.

156 12. FEJEZET. PARAMÉTERBECSLÉS Vizsgáljuk az mátrix a t Aη + b lineáris regressziós problémát, akkor a maradék kovariancia V R = cov (t, t) D ϑ ϕ(ϑ) T I(ϑ) 1 D ϑ ϕ(ϑ) (12.2) egy pozitív szemidefinit szimmetrikus mátrix, ami pontosan akkor lesz a zérusmátrix, ha 1-valószínűséggel teljesül egy A R q p mátrixszal, ami a mintától nem, de a paramétertől esetleg függhet: t = ϕ(ϑ) + A S(ξ; ϑ). (12.3) A (12.2) mátrix pozitív szemidefinit, ezért t komponensei szórásnégyzetének alsó határa a D ϑ ϕ(ϑ) T I(ϑ) 1 D ϑ ϕ(ϑ) R q q mátrix főátlójának megfelelő eleme, illetve a q = 1 esetben: D 2 (t) D ϑ ϕ(ϑ) T I(ϑ) 1 D ϑ ϕ(ϑ). Ha még ϑ skalár paraméter, akkor I(ϑ) egy pzitív paraméter, és kapjuk D 2 (t) (ϕ (ϑ)) 2. I(ϑ) Ezzel a torzítatlan becslés hatékonyságának alsó korlátját kaptuk a Fisher-féle információ mennyiség segítségével. Mindezekből hasznos következtetések vonhatók le maximum likelihood becslések esetén. Legyen tehát ϑ ϑ maximum likelihood becslés, amivel 0 1 p = S(ξ; ϑ) és B(ξ; ϑ) = D ϑ S(ξ; ϑ) ( = D ϑ D ϑ ln L(ξ; ϑ ) R p p negatív definit szimmetrikus mátrix. Ha a ϑ becslés elég közel van a ϑ paraméterhez (pl. konzisztens becslés nagy minta esetén), akkor ) 0 p 1 S(ξ; ϑ) T + B(ξ; ϑ) ( ϑ ϑ = ϑ ϑ B 1 (ξ; ϑ) S(ξ; ϑ) T. Ami éppen a (12.3) esetnek felel meg, ha B(ξ; ϑ) illetve B 1 (ξ; ϑ) közel állandónak tekinthető (pl. elég nagy minta, és ϑ szerint elég sima likelihodd függvény esetén). Ekkor V R 0 q q, B(ξ; ϑ) E (B(ξ; ϑ)) = I(ϑ), tehát ϑ komponensei a ϑ paraméter megfelelő komponenseinek leghatékonyabb becslése lesz, és amiből következik a cov( ϑ; ϑ) = I(ϑ) 1 B 1 (ξ; ϑ) cov( ϑ; ϑ) = I(ϑ) 1 B 1 (ξ; ϑ) becslés is. Tekintsünk most egy pédát a fentiek alkalmazására.

12.2. BECSLÉSEK HATÉKONYSÁGA 157 12.6. Példa. Legyen a statisztikai modell egy N ( ; ) eloszlású v.v. n-ismételt megfigyelésével kapcsolatos. Ekkor L(x; m, σ 2 1 ( ) = exp n [ s 2 + (x m) 2]) (2π) n 2 (σ2 ) n 2 2σ 2 S(x; m, σ 2 ) = [ n (x m) ; n 1 + n [ 1 σ 2 2 σ 2 2 σ s 2 (x) + (x m) 2] ] [ 4 ] B(x; m, σ 2 n n (x m) ) = σ 2 σ[ 4 n (x m) n + n σ 4 2σ 4 σ s 2 (x) + (x m) 2] 6 tehát kapjuk m(x) = x σ2 (x) = s 2 (x) I(m, σ 2 ) = E ( B(ξ; m, σ 2 ) ) [ n σ 2 0 0 n 2σ 4 ] I 1 (m, σ 2 ) = [ σ 2 n 0 0 σ 4 2 n továbbá B ( 1 ξ; ξ, s 2) [ s 2 ] 0 = n 0 s 4 2. n Tehát a várható érték leghatékonyabb becslésének standard hibája σ n, ami a 12.3 szerinti ] ξ = [ σ 2 m 0 ] S(ξ; m, σ 2 ) T + m összefüggés miatt az m ξ torzítatlan becslés hibája. Mivel az m ξ σ 2 s 2 becslések konzisztensek, a B 1 ( ξ; ξ, s 2) és B 1 (ξ; m, σ 2 ) mátrix mintától való függése elhanyagolható, ezért nagy n esetén használhatjuk az I 1 (m, σ 2 ) B 1 ( ξ; ξ, s 2) becslést. Tehát az m ξ torzítatlan becslés D(ξ) = σ n standard hibája éppen az információs s határ, aminek becslése a szokásos n. A σ 2 s 2 asszimptotikusan torzítatlan becslés standard hibájának becslése pedig s 2 2. Ez utóbbi becslés az egyébként is nagy n érték n feltételezése esetén megfelel az ellenőrízhető (lásd: 88. oldal 3. feladat) ( D(s 2 ) = σ 2 2 1 1 ) 2 σ 2 n n n összefüggésnek. A torzítatlanság miatt korrigált σ 2 s 2 becslés standard hibája D(s 2 ) = n ( 2 n 1 σ2 1 1 ) 2 = σ 2 n n n 1 mindíg nagyobb lesz mint a σ 2 2 n n esetén.. információs határ, de azt tetszőlegesen megközelíti Kézirat, módosítva: 2006. október 24.

158 12. FEJEZET. PARAMÉTERBECSLÉS 12.3. Intervallum becslések Egy ismeretlen paraméter becsült, tehát nyilvánvalóan pontatlan értéke helyet esetenként fontosabb lehet a skalár paraméter korlátainak megadása. 12.7. Definíció. A ϑ skalár paraméter (1 α)-szintű intervallum becslése a t 1 < t 2 statisztika pár, ha P (t 1 ϑ t 2 ) = 1 α. Jelölése: ϑ (t 1 ; t 2 ) illetve ϑ t ± d ahol t = t 1+t 2 2 az intervallum közepe, d = t 2 t 1 2 pedig a pontosság mértéke. Az intervallum becslést, vagy konfidencia intervallumot úgy alkalmazzuk, hogy kis 0 < α << 1 (α = 0.1, 0.05,...) érték mellett, az ismeretlen paraméter alsó illetve felső korlátjának az x X megfigyelt mintához tartozó t 1 (x) illetve t 2 (x) értékeket tekintjük (1 α) megbízhatósági szint mellett. Jelölése ϑ (t 1 (x); t 2 (x)) illetve ϑ t(x) ± d(x). Ha a t 1 = illetve t 2 = + választást is megengedjük, kapjuk az ismeretlen paraméter (1 α)-szintű felső illetve alsó határát. A továbbiakban néhány nevezetes eloszlás paraméterének intervallum becslését adjuk meg. 1. Valószínűség intervallum becslése. (a) (Visszatevéses mintavétel, Bernoulli kísérlet) Egy ismeretlen valószínűségű esemény n-ismételt megfigyelése esetén legyen a s.m. egy Bin(n; ) eloszlású v.v. megfigyelésével kapcsolatos. Jelölje ξ a minta statisztika; p a valószínűség paraméter; Ha n elég nagy (np > 10), a C.H.T. szerint közelítően teljesül ξ np np(1 p) N (0; 1). Válasszuk az 0 < α << 1 értékhez az u α táblázati értéket úgy, hogy ha u N (0; 1) P ( u > u α ) = α. Ekkor ( ) ξ np P u α = 1 α, np(1 p)

12.3. INTERVALLUM BECSLÉSEK 159 ahol az egyenlőtlenség ekvivalens alakításával, és az ilyenkor elegendően nagy n érték miatt megtehető uα elhanyagolásával kapjuk: n ( ξ P n u ( α ξ n n 1 ξ ) p ξ n n + u ( α ξ n n 1 n) ) ξ = 1 α, tehát kaptuk a p ξ n ± u α ξ n n ( 1 ξ ) n (1 α)-szintű kétoldali intervallum becslést. Az egyik oldali korlát elhagyásával nyerjük a p ξ n u ( α ξ n n 1 ξ ) illetve p ξ n n + u ( α ξ n n 1 ξ ) n (1 α )-szintű alsó illetve felső határokat. 2 A kétoldali intervallum becslés pontossága függ a mintától, de ( u α ξ n n 1 ξ ) u α n 2 n ezért tervezhető, vagyis adott pontosság eléréséhez megadható a szükséges megfigyelések n száma.. (b) (Visszatevés nélküli mintavétel) Legyen a s.m. egy Hyp(N,, n) eloszlású v.v. megfigyelésével kapcsolatos. Jelölje Mivel ξ a minta statisztika; p = M N a valószínűség paraméter, ahol M az alapsokaság megjelölt egyedeinek (ismeretlen) száma; E (ξ) = np D (ξ) = n p (1 p) [ 1 n 1 ], N 1 és a hipergeonetrikus eloszlás elég nagy N, M értékek esetén közelíthető a binomiális eloszlással, amit normális eloszlással közelíthetünk, és így az előzőekhez hasonlóan kapjuk a p ξ n ± u ( α ξ n n 1 ξ ) [ 1 n 1 ] n N 1 (1 α)-szintű kétoldali intervallum becslést. Kézirat, módosítva: 2006. október 24.

160 12. FEJEZET. PARAMÉTERBECSLÉS 2. Normális eloszlás várható értékének intervallum becslése ismert σ 0 szórás esetén. Egy N ( ; σ 0 ) eloszlású v.v. n-ismételt megfigyelése esetén jelölje ξ = (ξ 1, ξ 2,..., ξ n ) a minta statisztikát; m a várható érték paramétert; Mivel ξ k N (m; σ 0 ) k = 1, 2,..., n függetlenek, ξ m σ 0 n N (0; 1). Válasszuk az 0 < α << 1 értékhez az u α táblázati értéket úgy, hogy ha Ekkor u N (0; 1) P ( u > u α ) = α. ( ) ξ m P n u α = 1 α, σ 0 amiből az egyenlőtlenség ekvivalens alakításával kapjuk ( ) σ 0 P ξ uα m ξ σ 0 + u α = 1 α, n n tehát m ξ ± u α σ 0 n (1 α)-szintű kétoldali intervallum becslés, és m ξ u α σ 0 n illetve m ξ + u α σ 0 n (1 α )-szintű féloldali megbízhatósági határok. A kétoldali becslés pontossága 2 σ u 0 α n ismert (nem függ a mintától), ezért tervezhető. Megjegyzés: A fentiek mintájára, megadható további η = (η 1, η 2,..., η k ) megfigyelések η = 1 k k i=1 η i átlagának konfidencia intervalluma, ugyanis amiből hasonlóan kaphatjuk: (1 α)-valószínűséggel. ξ η 1 σ 0 + 1 n k η ξ ± u α σ 0 N (0; 1), 1 n + 1 k

12.3. INTERVALLUM BECSLÉSEK 161 3. Normális eloszlás várható értékének intervallum becslése ismeretlen szórás esetén. Egy N ( ; ) eloszlású v.v. n-ismételt megfigyelése esetén jelölje ξ = (ξ 1, ξ 2,..., ξ n ) a minta statisztikát; m a várható érték paramétert; σ a szórás paramétert; Mivel ξ k N (m; σ) k = 1, 2,..., n függetlenek, és a χ 2 eloszlás tulajdonságainak következményeként megfogalmazott 8.3 felhasználásával ξ m σ n ξ m n Tn 1. s = s 2 σ 2 Válasszuk az 0 < α << 1 értékhez a t α táblázati értéket úgy, hogy ha Ekkor t T n 1 P ( t > t α ) = α. ( ) ξ m P n t α = 1 α, s 2 amiből az egyenlőtlenség ekvivalens alakításával kapjuk ) s P ( ξ tα m ξ s + t α = 1 α, n n tehát m ξ ± t α s n (1 α)-szintű kétoldali intervallum becslés, és m ξ t α s n illetve m ξ + t α s n (1 α 2 )-szintű féloldali megbízhatósági határok. A kétoldali becslés pontossága t α s n most függ a mintától, ezért közvetlenül nem tervezhető. Megjegyzés: Most is megadható további η = (η 1, η 2,..., η k ) megfigyelések η = 1 k k i=1 η i átlagának konfidencia intervalluma, ugyanis amiből hasonlóan kaphatjuk: ξ η s 1 n + 1 k T n 1, (1 α)-valószínűséggel. η ξ ± t α s 1 n + 1 k Kézirat, módosítva: 2006. október 24.

162 12. FEJEZET. PARAMÉTERBECSLÉS 4. Normális eloszlás szórásának konfidencia határai. Egy N ( ; ) eloszlású v.v. n-ismételt megfigyelése esetén jelölje ξ = (ξ 1, ξ 2,..., ξ n ) a minta statisztikát; σ a szórás paramétert; Mivel ξ k N (m; σ) k = 1, 2,..., n függetlenek, és a χ 2 eloszlás tulajdonságainak következményeként megfogalmazott 8.3 felhasználásával n 1 σ 2 s 2 χ 2 n 1. Válasszuk az 0 < α << 1 értékhez a χ 2 1 α 2 Ekkor < χ 2 α 2 η χ 2 n 1 P (η > χ2 1 α ) = 1 α 2 2 ( P χ 2 1 α 2 és n 1 ) s 2 χ 2 σ 2 α = 1 α, 2 táblázati értékeket úgy, hogy ha P (η > χ 2 α ) = α 2 2. amiből az egyenlőtlenség ekvivalens alakításával kapjuk ( ) n 1 n 1 P s σ s = 1 α, tehát χ 2 α 2 χ 2 1 α 2 ( ) n 1 n 1 σ s ; s χ 2 α 2 (1 α)-szintű kétoldali intervallum becslés, és χ 2 1 α 2 σ s n 1 χ 2 α 2 illetve σ s n 1 χ 2 1 α 2 (1 α )-szintű féloldali megbízhatósági határok. 2 12.8. Megjegyzés. A utóbbi intervallum becslések a normális eloszlás feltételezése nélkül is megadhatók, és elég nagy minta esetén, mivel az itt szereplő átlag és empirikus szórásnégyzet statisztikák a C.H.T. miatt ekkor közel normális eloszlásúak, a normális eloszlás esetének megfelelő konfidencia szintet kapunk. 12.4. Feladatok 1. U(0; ) eloszlású v.v. n-ismételt megfigyelése esetén becsüljük az eloszlás intervallumának d felső határát! Adjuk meg a likelihood függvényt, keressünk elégséges statisztikát, adjunk maximum likelihood becslést a d paraméterre! Vizsgáljuk a becslések torzítatlanságát és hatékonyságát!

12.4. FELADATOK 163 2. Adjunk intervallum becslést (a) Poisson eloszlás paraméterére; (b) exponenciális eloszlás várható értékére; (c) két azonos szórású normális eloszlás várható értékének különbségére; 3. Legyen egy alkatrész élettartamának eloszlásfüggvénye: { 0 ha x 0 F (x) = 1 e αx2 ha x > 0. ahol α > 0 ismeretlen paraméter. 6db ilyen alkatrész élettartamát megfigyelve kaptuk: 12.5 4.5 17.6 6.8 21.2 16.4 Keressünk elégséges statisztikát, adjuk meg α maximum likelihood becslését! 4. Egy folytonos eloszlású v.v. sűrűségfüggvénye { α x α 1 ha 0 < x < 1 f(x) = 0 egyébként ahol α > 0 ismeretlen paraméter. n-ismételt megfigyelés esetén (a) adjuk meg a likelihood függvényt, keressünk elégséges statisztikát! (b) készítsünk maximum likelihood becslést az 1 paraméterre, torzítatlan-e ez a α becslés? 5. Egy ismeretlen valószínűségű eseményt az első bekövetkezéséig figyelünk meg. Készítsünk maximum likelihood becslést a valószínűség paraméterre! Torzitatlan-e ez a becslés? 6. Legyen a statisztikai modell egy { F (x) = 0 ha x 0 1 e αxβ ha 0 < x eloszlásfüggvényű v.v. n-ismételt megfigyelésével kapcsolatos. (a) Írjuk fel a likeihood függvényt az α, β pozitív paraméterek függvényeként! (b) Keressünk elégséges statisztikát! (c) Adjuk meg a maximum likelihood becslések implicit egyenletét! 7. Hasonlítsuk össze a szokásos becslések hatékonyságát (a) binomiális (b) exponenciális (c) normális eloszlások paraméterei esetén az információs határral! Kézirat, módosítva: 2006. október 24.

164 12. FEJEZET. PARAMÉTERBECSLÉS

13. fejezet Hipotézis vizsgálat 13.1. Alapfogalmak 13.1. Definíció. i) A lehetséges valószínűségi mértékek H 0 P részét hipotézisnek nevezzük. A H 0 hipotézis P-re vonatkozó H 1 = P \ H 0 komplementerét alternatív hipotézisnek nevezzük. ii) Egy hipotézist egyszerűnek nevezünk, ha egy eleme van, egyébként összetettnek mondjuk. iii) Egy H 0 hipotézis eldöntésére szolgáló α ]0; 1[ terjedelmű kritikus tartománynak nevezzük a mintatér K A részhalmazát, melyre teljesül P H0 (K) = α vagyis P (K) = α P P. iv) Egy H 0 hipotézis eldöntésére szolgáló K kritikus tartományú próba erőfüggvénye, illetve jelleggörbéje az paraméter. Megjegyzések: E = P(K) illetve J = 1 P(K) 1. A fenti fogalmakat úgy alkalmazzuk, hogy ha x K elutasítjuk H 0 -t, vagyis az igazi valószínűségi mértéket H 1 -belinek fogadjuk el. Ha pedig x / K elfogadjuk H 0 -t, vagyis az igazi valószínűségi mértéket H 0 -belinek tekintjük. Következtetésünket az első esetben az indokolja, a szokásos α < 0.1 esetben, hogy kis valószínűségű esemény bekövetkezésében kételkedünk, míg a második esetben erre nincs okunk. Ezt az eljárást statisztikai próbának nevezzük. 165

166 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT 2. Paraméterekkel kapcsolatos hipotéziseket gyakran használunk, ilyen lehet pl. a ϑ skalár paraméterrel kapcsolatos H 0 = {P P ϑ(p ) = ϑ 0 } röviden H 0 : ϑ = ϑ 0 ahol ϑ 0 egy adott, hipotetikus érték. Ilyen hipotézist többnyire a H 1 = {P P ϑ(p ) ϑ 0 } röviden H 1 : ϑ ϑ 0 un. kétoldali alternatív hipotézissel, de esetenként a illetve H + 1 = {P P ϑ(p ) > ϑ 0} röviden H + 1 : ϑ > ϑ 0 H 1 = {P P ϑ(p ) < ϑ 0} röviden H 1 : ϑ < ϑ 0 un. féloldali alternatív hipotézissel együtt fogalmazunk meg. 3. A próba során, egy x X megfigyelt minta esetén, kétféleképpen dönthetünk hibásan: (a) Elsőfajú hiba ha x K és az igazi valószínűségi mérték H 0 -beli; Ennek mértéke az α = P H0 (K) adott terjedelem. (b) Másodfajú hiba ha x / K és az igazi valószínűségi mérték H 1 -beli; Ennek mértéke a β = P H1 (K) = 1 P H1 (K) = 1 E H1 = J H1 alternatív hipotézisre leszűkített paraméter. Ezért olyan próba kívánatos, melynek erőfüggvénye H 0 -on konstans α értékű, a H 1 alternatív hipotézis esetén pedig nagy, egyhez közeli értékű. Tehát a kritikus tartomány kijelölése határozza meg egy próba erejét (jóságát), és az α-terjedelmű K 1, K 2 kritikus tartományú próbák közül az elsőt erősebbnek (illetve az utóbbit gyengébbnek) mondjuk, ha E 1 illetve E 2 erőfüggvényeikre teljesül E 1 H1 = P H1 (K 1 ) E 2 H1 = P H1 (K 2 ), vagyis azonos alternatíva esetén az elsőnél kisebb a másodfajú hiba mértéke. 4. Ha ϑ egy skalár paraméter, és ϑ (t 1 ; t 2 ) egy (1 α)-szintű intervallum becslés, akkor a H 0 : ϑ = ϑ 0 hipotézis eldöntésére szolgáló α-terjedelmű kritikus tartomány lesz: K = {x X ϑ 0 < t 1 (x) vagy t 2 (x) < ϑ 0 }.

13.2. VALÓSZÍNŰSÉGHÁNYADOS PRÓBA 167 13.2. Valószínűséghányados próba A következő állításban, egy egyszerű esetben megmutatjuk, hogy a fenti értelemben legerősebb próba megadásához a legnagyobb valószínűség elve vezet. 13.2. Tétel (Neyman Pearson lemma). Legyenek P = {P 0, P 1 } és H 0 = {P 0 }, H 1 = {P 1 }. Jelölje továbbá L a likelihood föggvényt, K C = {x X L(x; P 0 ) < C L(x; P 1 )}, (13.1) ahol C > 0, és α = P 0 (K C ) a K C kritikus tartományú próba terjedelme. Ekkor tetszőleges, a H 0 hipotézis eldöntésére szolgáló legfeljebb α-terjedelmű K kritikus tartományú próba gyengébb, azaz P 1 (K C ) P 1 (K), és az egyenlőség nem teljesülhet, ha P 0 (K) < α. Bizonyítás. Legyen K A és P 0 (K) α, és vizsgáljuk a H(x) = [1 KC (x) 1 K (x)] [C L(x; P 1 ) L(x; P 0 )] x X függvényt. Mivel x K C 1 KC (x) 1 K (x) 0 és C L(x; P 1 ) L(x; P 0 ) > 0 továbbá x / K C 1 KC (x) 1 K (x) 0 és C L(x; P 1 ) L(x; P 0 ) 0 teljesül amit rendezve kapjuk H(x) 0 x X, C [1 Kc (x) L(x; P 1 ) 1 K (x) L(x; P 1 )] 1 KC (x) L(x; P 0 ) 1 K (x) L(x; P 0 ) x X. Az egyenlőtlenség mindkét oldalát integrálva X-en a folytonos statisztikai modell esetén, illtve összegezve X-elemeire a diszkrét esetben, kapjuk C [P 1 (K C ) P 1 (K)] P 0 (K C ) P 0 (K) = α P 0 (K) 0, amit bizonyítani kellett. A 13.2 tétel szerint tehát olyan 1 > C > 0 konstanshoz tartozó K C kritikus tartományt érdemes keresni, amelyre teljesül 13.1 a legvalószínűbb P 0 H 0 és P 1 H 1 esetén, vagyis { } K C = x X sup L(x; P 0 ) < C sup L(x; P 1 ) P 0 H 0 P 1 H 1 Kézirat, módosítva: 2006. október 24.

168 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT ami pozitív likelihood függvény esetén a λ(x) = sup P 0 H 0 L(x; P 0 ) sup P P L(x; P ) x X statisztikával is megadható: K c = {x X λ(x) < c}. Az ilyen kritikus tartományú próbát valószínűséghányados próbának nevezzük, és mint a legnagyobb valószínűség elve alapján hozott más következtetéseinknél is, a kritikus tartomány bekövetkezése eldönhető az elégséges statisztika (ha van!) ismeretében. Természetesen a c konstans megadásának lehetősége egy adott α terjedelemhez mindebből még nem következik, de esetenként találhatunk erre megoldást. Bizonyítás nélkül kimondjuk a következő állítást, mely elég általános feltételek mellett lehetővé teszi ilyen próbák készítését az n-ismételt megfigyelés modelljében. 13.3. Állítás. Ha a H 0 hipotézis a ϑ = (ϑ 1, ϑ 2,..., ϑ r ) meghatározó paraméterrel kapcsolatos, mégpedig H 0 : ϑ 1 = ϑ 0 1, ϑ 2 = ϑ 0 2,..., ϑ p = ϑ 0 p ahol ϑ 0 1, ϑ0 2,..., ϑ0 p adott értékek, p r, akkor elég nagy minta esetén 2 ln(λ) eloszlása H 0 teljesülésekor közelítően χ 2 eloszlású p szabasági fokkal. 13.2.1. Bartlett próba Használjuk az előbbi állítást a következő feladatban. Legyen a statisztikai modell r számú független normális eloszlású valószínűségi változó n 1, n 2,..., n r ismételt megfigyelésével kapcsolatos. Jelölje a minta elemeket ξ ij j = 1, 2,... n i i = 1, 2,... r, az r számú minta várható érték és szórás paraméterét pedig tehát m i, σ i i = 1, 2,... r, ξ ij N (m i, σ i ) j = 1, 2,... n i i = 1, 2,... r. Vizsgáljuk a H 0 : σ 1 = σ 2 =... = σ r hipotézist. A valószínűséghányados próbához határozzuk meg a liklehood függvény maximumát. Ez a maximum P P esetén, mivel azt mintánként határozhatjuk meg ahol s 2 i = 1 n i n i j=1 1 (2π) n 2 s n 1 1 sn 2 2 snr r exp { n } 2 ( ξij ξ i. ) 2 i = 1, 2,... r, és n = r n i. i=1

13.2. VALÓSZÍNŰSÉGHÁNYADOS PRÓBA 169 H 0 esetén a maximumát kell venni az alábbi kifejezésnek, ahol σ jelöli a közös szórás paramétert: { } 1 r (2π) n 2 σ exp n i [ s 2 n 2σ 2 i + ( ξ i. m i ) 2]. i=1 Maximum helyen nyilván m i = ξ i., és igy σ-szerinti maximumhelyként kapjuk S = 1 r n i s 2 i n, tehát a maximum értéke 1 { (2π) n 2 S exp n }. n 2 Thát a statisztika, amire a próbát alapozzuk λ = sup L(.; P 0 ) P 0 H 0 sup P P L(.; P ) i=1 = sn 1 1 sn 2 2 snr r. S n Ha a szórások helyett paraméterként a σ 1, σ 2 σ 1, σ 3 σ 1,..., σ r σ 1 paramétereket vezetjük be, hipotézisünk r 1 számú praméterre vonatkozóan H 0 : σ 2 σ 1 = 0, σ 3 σ 1 = 0,..., σ r σ 1 = 0 alakban írható. Korábbi állításunk szerint a 2 ln(λ) = n ln S 2 r n i ln s 2 i statisztika eloszlása H 0 esetén közel χ 2 r 1 eloszlás, ezért válasszunk egy 0 < α < 1 számot, és táblázatból egy χ 2 α értéket, melyre P (η > χ2 α ) = α ha η χ2 r 1, és ekkor i=1 P H0 ( 2 ln(λ) > χ 2 α) = α. Tehát K = {x X 2 ln(λ(x)) > χ 2 α } α-terjedelmű kritikus tartomány H 0 eldöntésére. M. S. Bartlett megmutatta, hogy a korrigált empirikus szórásokat használva, a következő módosított próba-statisztika már kis minta esetén is kielégítően χ 2 r 1 eloszlású a H 0 hipotézis esetén: ahol 2.3026 c ( c = 1 + s 2 i = S 2 = (n r) ln S 2 n i r i=1 (n i 1) ln s 2 i ) ( r ) 1 1 3(r 1) n i 1 1 n r i=1 n i 1 s2 i i = 1, 2,... r 1 r (n i 1)s 2 i. n r i=1 Kézirat, módosítva: 2006. október 24.

170 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT 13.2.2. Valószínűség próbája, (n;c) terv Tömeggyártás minőségellenőrzésének alapvető feladata, hogy egy minta alapján eldöntendő, nem tartalmaz e a termékhalmaz a megengedettnél több hibás darabot. Ha a selejthányadot p jelöli, akkor ez annak valószínűsége, hogy egy kiválasztott termék hibás. Vizsgálnunk kell tehát azt a hipotézist, hogy az ismeretlen selejthányad meghaladja-e az előirás szerinti p 0 értéket, tehát vizsgáljuk a H 0 : p = p 0 hipotézist a H 1 : p > p 0 alternatívával szemben. Feladatunk olyan kritikus tartomány kijelölése, melyhez tartozó elsőfajú hiba α. Legyenek 0 < p 0 < p 1 < 1, és vizsgáljuk először azt az esetet, amikor H 0 : p = p 0, H 1 : p = p 1. A likelihood függvényt a p paraméter fügvényében írva (közelítve a c) és d) esetben), n elemű mintát véve: a) visszatevés nélküli mintavétel esetén ( M )( N M ) k n k L(k; p) = ( N k = 0, 1, 2,... n n) ahol p = M és N jelöli a sokaság elemszámát, melyből az n elemű mintát N választottuk, M pedig a hibás darabok számát. Tehát egy hipergeometrikus eloszlású v.v. megfigyelésével kapcsolatos a s.m., ahol p meghatározó paraméter, ha M és N közül az egyik ismeretlen. b) visszatevéses mintavétel esetén ( ) n L(k; p) = p k (1 p) n k k = 0, 1, 2,... n. k Ekkor egy n-edrendű binomiális eloszlású paramétere ismeretlen. c) nagy minta, és kis p esetén ( np < 10 ) v.v.-t figyelünk meg, melynek p L(k; p) (np)k e np k = 0, 1, 2,.... k! Tehát a megfigyelt v.v. Poisson eloszlású, ismeretlen λ = np paraméterrel. d) nagy minta és np > 10 esetén L(k; p) Φ ( k + 1 2 np np(1 p) ) Φ ( ) 1 k np ϕ np(1 p) np(1 p) ( k 1 2 np np(1 p) ) k = 0, 1, 2,.... Ekkor egy np várható értékű és np(1 p) szórású normális eloszlást figyelünk meg, ahol p az ismeretlen paraméter.

13.2. VALÓSZÍNŰSÉGHÁNYADOS PRÓBA 171 Egyszerű számolással kapjuk, hogy a C konstansú valószínűséghányados próba kritikus tartományára mindegyik esetben K C = {k {1, 2,...} L(k; p 0 ) C L(k; p 1 )} = = K c = {k k > c, k = 1, 2,...}, figyelembe véve, hogy 0 < C < 1, és p 0 < p 1, és c egy alkalmasan választott pozitív egész szám. Tehát keressük c-t úgy, hogy a K c = {k k > c, k = 1, 2,..., n} kritikus tartomány α valószínűségű legyen H 0 esetén. Egy α értékhez azonban nem feltétlen található ilyen egész szám, ezért keressük azt a legkisebb c N számot, melyre n L(k; p 0 ) α vagy másképpen: k=c+1 c L(k; p 0 ) 1 α. k=0 Ekkor a K c kritikus tartományú próba β másodfajú hibája: c L(k; p 1 ) = β. k=0 Ha a továbbiakban tetszőleges p ]0; 1[ értéket megengdünk, a próba jelleggörbéje, ami annak valószínűsége, hogy a H 0 hipotézist elfogadjuk c J (p) = L(k; p) p ]0; 1[. k=0 Könnyen ellenőrizhető, hogy ez p-nek monoton csökkenő függvénye, lim 0 J (p) = 1 és lim 1 J (p) = 0, tehát p 0 -nál kisebb p esetán még α-nál is kisebb elsőfajú hibával, p 1 -nél nagyobb p esetén pedig β-nál kisebb másodfajú hibával dönthetünk tévesen. Igaz ugyan, hogy p 0 és p 1 között a döntési hiba nagy, de ha a valóban veszélyes alternatíva értéke p 1 -nél kezdődik, akkor az ilyen fajta rossz döntés még nem jelenthet megengedhetetlen kockázatot. Ha β értékét is előírjuk, a minta elemszáma tervezhető. Ezt nevezzük az α, β-hibákhoz tartozó (n; c)-tervnek. Azt a legkisebb n egészet kell választani, melyre egyszerre teljesülnek c L(k; p 0 ) 1 α, k=0 c L(k; p 1 ) β. k=0 Egy lehetséges algoritmus n meghatározására, ha egy kezdő n = n 0 értékből indulunk, és a gyakorlati eseteknek megfelelően a c)-beli likelihood függvény alakot hasznlva: Kézirat, módosítva: 2006. október 24.

172 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT 1. n esetén meghatározzuk azt a legkisebb c egészt, melyre c L(k; p 0 ) 1 α. 2. Ha k=0 c L(k; p 1 ) β k=0 teljesül, megvan a keresett n, ha nem n + 1 értékével folytatjuk az 1. lépésnél. Mindez a d) esetben egyszerűbben alakul, ugyanis ( ) c c np 0 L(k; p 0 ) Φ 1 α np0 (1 p k=0 0 ) ( ) c c np 1 L(k; p 1 ) Φ β. np1 (1 p 1 ) k=0 13.3. Normális eloszlás paramétereinek próbái Megmutatható, hogy az alábbi próbák ekvivalensek egy valószínűséghányados próbával, de a kritikus tartományokat egyszerűbben, közelítő eloszlás felhasználása nélkül adjuk meg. 1. (Egymintás) u-próba. Legyen a s.m. egy N ( ; σ 0 ) eloszlású v.v. n ismételt megfigyelésével kapcsolatos, ahol σ 0 adott. Jelölje a minta statisztikát ξ = (ξ 1, ξ 2,..., ξ n ), és m a várható érték paramétert, és vizsgáljuk a H 0 : m = m 0 hipotézist a H 1 : m m 0 alternatívával szemben. Mivel H 0 esetén ξ N (m 0 ; σ ) 0 ξ m 0 n N (0; 1), n σ 0 válasszuk a 0 < α << 1 értékhez táblázatból u α értékét úgy, hogy u N (0; 1) esetén P ( u > u α ) = α, akkor ( ) ξ m0 P H0 n σ 0 > u α = α, tehát kaptuk a { } K = x R n x m 0 n σ 0 > u α α-terjedelmű, kétoldali kritikus tartományt. Hasonlóan nyerhetők { K + = x R n x m } 0 n > u2α σ { 0 K = x R n x m } 0 n < u2α σ 0

13.3. NORMÁLIS ELOSZLÁS PARAMÉTEREINEK PRÓBÁI 173 ugyancsak α-terjedelmű, féloldali kritikus tartományok. Adjuk meg a megfelelő erőfüggvényeket a különböző próbák összehasonlításához, tehát ( ) ξ m0 E = P(K) = 1 P n σ 0 u α = ( = 1 P u α + m 0 m ξ m n n uα + m ) 0 m n = σ 0 σ 0 σ ( 0 = 1 Φ u α + m ) ( 0 m n + Φ u α + m ) 0 m n, σ 0 σ 0 illetve hasonlóan nyerhetők ( E + = 1 Φ u 2α + m 0 m σ ( 0 E = Φ u 2α + m 0 m σ 0 ) n ) n Egyszerűen ellenőrízhető, hogy E az m paraméter m 0 -ra szimmetrikus függvénye, és E < E + ha m 0 < m E > α > E + ha m 0 > m E < E ha m 0 > m E > α > E ha m 0 < m. Tehát a H + 1 : m 0 < m illetve H 1 : m 0 > m alternatív hipotézisek esetén erősebb próbákat kapunk a K + illetve K kritikus tartományok alkalmazásával. Teljesülnek továbbá és lim E = m ± lim E + = m + lim E = 1 m lim n = 1 ha m m 0 lim n = 1 ha m > m 0 lim n = 1 ha m < m 0 ami azt jelenti, hogy a másodfajú hiba adott alternatíva esetén tetszőlegesen kicsivé tehető a minta n elemszámának növelésével. 2. Egymintás T -próba. Legyen a s.m. egy N ( ; ) eloszlású v.v. n ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát ξ = (ξ 1, ξ 2,..., ξ n ), és m, σ a várható érték és szórás paramétert, és. Kézirat, módosítva: 2006. október 24.

174 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT vizsgáljuk a H 0 : m = m 0 hipotézist a H 1 : m m 0 alternatívával szemben. Mivel H 0 esetén (lásd 8.3) ξ m0 n Tn 1 s válasszuk a 0 < α << 1 értékhez táblázatból t α értékét úgy, hogy t T n 1 esetén P ( t > t α ) = α, akkor ( ) ξ m0 P H0 n s > t α = α, tehát kaptuk a K = { x R n x m 0 s } n > t α α-terjedelmű, kétoldali kritikus tartományt. Hasonlóan nyerhetők { K + = x R n x m } 0 n > t2α s { K = x R n x m } 0 n < t2α s ugyancsak α-terjedelmű, féloldali kritikus tartományok. Az erőfüggvények viselkedése hasonló az előbbi esethez, ezért a H 1 + : m 0 < m illetve H1 : m 0 > m alternatív hipotézisek esetén most is erősebb próbákat kapunk a K + illetve K kritikus tartományok alkalmazásával. Továbbá az erőfüggvények jó közelítése adható az u-próba megfelelő erőfüggvényeivel a táblázati értékek (u α t α ), illetve a szórás és becslése (σ 0 s ) kicserélésével. 3. Szórás χ 2 próbája. Legyen a s.m. egy N ( ; ) eloszlású v.v. n ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát ξ = (ξ 1, ξ 2,..., ξ n ), és σ a szórás paramétert, és vizsgáljuk a H 0 : σ = σ 0 hipotézist a H 1 : σ σ 0 alternatívával szemben. Mivel H 0 esetén (lásd 8.3) n 1 s 2 χ 2 σ 2 n 1 0 válasszuk a 0 < α << 1 értékhez táblázatból χ 2 1 < χ 2 α α értékét úgy, hogy η χ 2 n 1 2 2 esetén P (η > χ 2 1 ) = 1 α és P (η > α 2 2 χ2 α ) = α, akkor 2 2 { K = x R n n 1 s 2 < χ 2 σ 2 1 α χ 2 α < n 1 } s 2 2 2 0 σ 2 0 α-terjedelmű, kétoldali kritikus tartomány. 4. Kétmintás T -próba.

13.3. NORMÁLIS ELOSZLÁS PARAMÉTEREINEK PRÓBÁI 175 Legyen a s.m. két azonos szórású normális eloszlású v.v. n 1 illetve n 2 ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát (ξ, η) = (ξ 1, ξ 2,..., ξ n1, η 1, η 2,..., η n2 ), és m 1, m 2 a két várható érték paramétert, σ a közös szórás paramétert, és vizsgáljuk a H 0 : m 1 = m 2 hipotézist a H 1 : m 1 m 2 alternatívával szemben. Mivel H 0 esetén ξ η N (0; σ 1 n 1 + 1 n 2 és ettől független (n 1 1) s 2 1 + (n 2 1) s 2 2 χ 2 σ 2 n 1 +n 2 2, ahol s 1 illetve s 2 jelöli a két minta korrigált empirikus szórást és ezekből kaphatjuk a közös szórásnégyzet σ 2 S 2 = (n 1 1) s 2 1 + (n 2 1) s 2 2 n 1 + n 2 2 ), torzítatlan becslését. Tehát H 0 esetén t = ξ η S n1 n 2 T n1 +n n 1 + n 2 2 2 amiből kaphatjuk a K = { (x; y) R n 1+n 2 t(x; y) > t α } kétoldali kritikus tartományt, ahol t α a T n1 +n 2 2 eloszláshoz tartozó megfelelő kritikus érték. 5. Két szórás egyenlőségének F próbája. Legyen a s.m. két (nem feltétlenül azonos szórású) normális eloszlású v.v. n 1 illetve n 2 ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát (ξ, η) = (ξ 1, ξ 2,..., ξ n1, η 1, η 2,..., η n2 ), és σ 1, σ 2 a két szórás paramétert, és vizsgáljuk a H 0 : σ 1 = σ 2 hipotézist a H 1 : σ 1 σ 2 alternatívával szemben. Mivel (n 1 1) s 2 1 σ 2 1 χ 2 n 1 1 (n 2 1) s 2 2 σ 2 2 χ 2 n 2 1, ahol az s 1 és s 2 korrigált empirikus szórás statisztikák függetlenek, ezért H 0 esetén s 2 1 s 2 2 F (n1 1;n 2 1). Kézirat, módosítva: 2006. október 24.

176 13. FEJEZET. HIPOTÉZIS VIZSGÁLAT Válasszuk a 0 < α << 1 értékhez táblázatból f 1 α < f α értékét úgy, hogy η 2 2 F (n1 1;n 2 1) esetén P (η > f 1 α ) = 1 α és P (η > f α ) = α, akkor 2 2 2 2 K = {(x; y) R n 1+n 2 s 2 1 s 2 2 < f 1 α 2 f α < s 2 1 2 s 2 2 α-terjedelmű, kétoldali kritikus tartomány H 0 eldöntésére. Mivel a szokásos terjedelmekhez tartozó táblázati értékekre f 1 α < 1 < f α 2 2 teljesül, a próbát úgy célszerű elvégezni, hogy a nagyobb empirikus szórásnégyzetet osztva a kisebbel, csupán az egyenlőtlenség teljesülését ellenőrízzük. f α < s 2 1 2 s 2 2 13.4. Megjegyzés. A 12.8 megjegyzésünk most is érvényes, ezért a fenti hipotézis vizsgálatok elég nagy minta esetén a normális eloszlás feltételezése nélkül is elvégezhetők. } 13.4. Feladatok 1. Ha az (n; c) tervet úgy alkalmazzuk sorozatosan, hogy N elemű tételeket elfogadunk illetve visszautasítunk a döntéstől függően, adjuk meg a kibocsájtott selejthányad várható értékét a p függvényében! Mennyi ennek maximuma? 2. Mutassuk meg, hogy a normális eloszlás paramétereinek itt megadott próbái valószínűséghányados próbák! 3. Készítsünk próbát exponenciális eloszlás paraméterére! 4. Adjuk meg a valószínűség próbáját, és a próba erejét a normális eloszlással való közelítés esetén! 5. Adjuk meg a szórás χ 2 próbájának erőfüggvényét! 6. Adjuk meg a kétmintás u-próbát a kétmintás t-próbához hasonlóan!

14. fejezet Lineáris függőségi kapcsolat Vizsgáljuk a következő feladatot: egy y mennyiséget egy x mennyiségtől függően tudunk megfigyelni y = f(x) + ɛ, (14.1) ahol f a regressziós függvény, ɛ a megfigyelési hiba. Esetünkben feltételezzük, hogy f az x-nek lineáris függvénye, tehát ha pl. x egy p-dimenziós vektor-mennyiség: f(t 1, t 2,..., t p ) = a 1 t 1 + a 2 t 2 +... + a p t p x = (t 1, t 2,..., t p ) D R p ahol az a 1, a 2,... a p ismeretlen regressziós együthatókat kell becsülni az Y mennyiség x D ismert helyekhez tartozó megfigyelése alapján. Itt a D halmaz az X mennyiség lehetséges értékeit tartalmazó halmaz, melyben ha pl. az első koordináta mindíg 1, azaz D = { (1, t 2, t 3,..., t p ) (t 2, t 3,..., t p ) D R p 1}, akkor a szokásos origón nem átmenő regressziós függvényt kapjuk. Ha pedig D = { (1, t, t 2,..., t p ) t J R }, akkor a p-edfokú polinom regressziós függvényt kapjuk. Az ɛ hibáról azt tételezzük fel, hogy különböző x D helyekhez tartozó ɛ x hibák függetlenek, és N (0, σ) eloszlásúak azonos σ (ismeretlen) szórással. 14.1. Egyenlő mértékű, független megfigyelési hiba Legyen tehát a statisztikai mező az Y mennyiség x 1, x 2,..., x n D R p (adott) helyekhez tartozó értékének független megfigyelésével kapcsolatos, tehát a mintatér R n, és jelölje η = (η 1, η 2,..., η n ) a minta statisztikát, a = (a 1, a 2,... a p ) a regressziós együtthatók, és σ a megfigyelési hiba szórása paramétereket. Jelölje továbbá X = x T 1 x T 2. x T n Rn p 177

178 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT az un. terv mátrixot, és feltesszük, hogy rang(x) =p. Ekkor η N (Xa, σ 2 I n ), ahol I n az n n-típusú egységmátrix. Irjuk a likelihood függvényt az a és σ paraméterek függvényében: L(y; a, σ) = { 1 (2π) exp 1 } n 2 σ n 2σ (y 2 Xa)T (y Xa) y R n. Kerressük a likelihood függvény maximum helyét a R p, és σ > 0 esetben. Ekkor a minimum helye a n ( yı x T ı a) 2 = (y Xa) T (y Xa) = y T y 2y T Xa + a T X T Xa i=1 p-változós másodfokú polinomfüggvénynek. Ez a minimum feladat, a szokásos origón nem átmenő regressziós függvény esetén, a legkisebb négyzetek módszere (lásd: 92. oldal) kapcsán megfogalmazott probléma megoldását jelenti. Feltételeinkből következik, hogy X T X pozitív definit, ezért a keresett (y-tól függő) minimum hely â(y) = ( X T X ) 1 X T y y R n és a minimum értéke ( SS(y) = y T I n X ( X T X ) ) 1 X T y = y T y y T X ( X T X ) 1 X T y y R n. Ezt a likelihood függvény logaritmusába írva, és σ-szerint deriválva σ ln L (y; â, σ) = n σ + 1 σ 3 SS(y) amiből kapjuk a σ-szerinti maximum helyet: 1 σ(y) = n SS(y). Kaptuk tehát az a â = ( X T X ) 1 X T η σ 2 σ 2 = 1 n SS = 1 ( n ηt I n X ( X T X ) ) 1 X T η = 1 ( η T η η T X ( X T X ) ) 1 X T η n maximum likelihood becsléseket. Vizsgáljuk most a kapott becslések tulajdonságait. Az â statisztika eloszlása normális, és E(â) = ( X T X ) 1 X T E(η) = a, cov(â, â) = ( X T X ) 1 X T cov(η, η)x ( X T X ) 1 = σ 2 ( X T X ) 1,

14.1. EGYENLŐ MÉRTÉKŰ, FÜGGETLEN MEGFIGYELÉSI HIBA 179 tehát az a â becslés torzítatlan. Legyenek továbbá Q 1 = X ( X T X ) 1 X T, Q 2 = I n X ( X T X ) 1 X T szimmetrikus mátrixok, melyekre I n = Q 1 + Q 2. Mivel Q 1 mint lineáris leképezés olyan értékkészlettel rendelkezik, melynek minden vektora az X mátrix oszlopvektorainak lineáris kombinációja, ezért Q 1 rangja legfeljebb p, másrészt Q 1 X = X, tehát értékkészletében van p számú lineárisan független vektor, vagyis rangja legalább p. Tehát rang (Q 1 ) = p, és könnyen ellenőrízhető, hogy teljesül Q 1 Q 2 = 0 n n R n n amiből a χ 2 eloszlás partíciós tulajdonságaként bizonyított (Fisher-Cochran) tétel szerint következnek az alábbiak: rang (Q 2 ) = n p Q 1 Q 1 = Q 1, Q 2 Q 2 = Q 2 továbbá az 1 σ SS = 1 2 σ 2 ηt Q 2 η négyzetösszeg χ 2 -eloszlású n p szabadsági fokkal, mivel Q 2 Xa = 0 n n R n. Tehát vagyis a σ 2 σ 2 becslés torzított, és ezért a becslés torzítatlan. Tovább E( σ 2 ) = n p n σ2, σ 2 s 2 R = 1 n p SS cov (â, Q 2 η) = ( X T X ) 1 X T cov(η, η)q 2 = 0 R p n, ezért â és Q 2 η, és így â és s 2 R is függetlenek. Mindezek fontos következményei az alábbi intervallum becslések: 1. A regressziós együthatók lineáris függvényének intervallum becslése. Legyen c R p, és becsüljük az a T c skalár paramétert! Mivel ( ) â T c N â T c; σ c T (X T X) 1 c ezért a T c â T c is torzítatlan becslés, továbbá â T c a T c s R c T (X T X) 1 c T n p, Kézirat, módosítva: 2006. október 24.

180 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT amiből kapjuk az (1 α)-szintű intervallum becslést. Speciális esetek: a T c â T c ± t α s R c T (X T X) 1 c (a) Ha c = e k a k-adik egységvektor, kapjuk a k-adik együttható a k â k ± t α s R qkk intervallum becslését, ahol q kk az. ( X T X ) 1 mátrix főátlójának k-adik eleme. (b) Ha c = x a független változó egy lehetséges értéke, kapjuk az ehhez tertozó függő változó várható értékének becslését. f(x) = a T x â T x ± t α s R x T (X T X) 1 x 2. A függő változó véletlen értékének becslése. Legyen x R p, becsüljük az ehhez tartozó további r-számú y 1, y 2,..., y r véletlen értékekek ȳ = 1 r r i=1 y i átlagát! Mivel ( ) ȳ N a T σ x;, r kapjuk ( ) 1 ȳ â T x N 0; σ r + xt (X T X) 1 x, amiből nyerhető az (1 α)-szintű intervallum becslés. ȳ â T x ± t α s R 1 r + xt (X T X) 1 x (14.2) 3. A független változó értékének becslése. Legyen most x R p egy ismeretlen hely, melyhez tartozó r-számú y 1, y 2,..., y r véletlen értékek adottak. 14.2 átrendezésével kapjuk P ( (ȳ â T x ) 2 t 2 α s2 R ( 1 r + xt ( X T X ) 1 x )) = 1 α, ahol az egyenlőtlenség átrendezésével nyerhető az ismeretlen független változó (1 α)-szintű konfidencia tartománya.

14.1. EGYENLŐ MÉRTÉKŰ, FÜGGETLEN MEGFIGYELÉSI HIBA 181 Megjegyzés: A felsorolt intervallum becslések lehetőséget adnak a megfelelő paraméterrel kapcsolatos hipotézisek vizsgálatára. Vizsgáljuk most azt az esetet, amikor az a paraméter vektor néhány, pl. utolsó r számú komponense 0. Ez lényegében azt jelenti, hogy az Y függő változó kevesebb p = p r számú független változóval közelíthető. Ennek megfelelően jelölje az X mátrix első p oszlopát tartalmazó mátrixot X 1, melynek rangja p, és a első p komponensét tartalmazó vektort a 1, tehát η N (X 1 a 1, σ 2 I n ). Az így nyert maradék négyzetösszeg statisztika SS 1 = η T ( I n X 1 ( X T 1 X 1 ) 1 X T 1 ) η, amire nyilvánvalóan teljesül SS SS 1. A növekmény pedig SS 2 = η T ( X ( X T X ) 1 X T X 1 ( X T 1 X 1 ) 1 X T 1 ) η, tehát SS 1 = SS + SS 2. Ekkor irhatjuk I n = Q + Q 1 + Q 2 ahol Q = X ( X T X ) 1 ( ) X T X 1 X T 1 1 X 1 X T 1, ( ) Q 1 = X 1 X T 1 1 X 1 X T 1, Q 2 = I n X ( X T X ) 1 X T szimmetrikus n n típusú mátrixok, melyekről a korábbiak szerint tudjuk, hogy rang(q 2 ) = n p és rang(q 1) = p. Mint azt már láttuk, a Q 2 mátrixra 0 = Q 2 Q 1 0 = Q 2 X =Q 2 Q 1 X, tehát a Q 2 mátrix az X mátrix oszlopait zérus vektorba viszi át. Ezért Q 2 X 1 R n p zérus mátrix. Ezt felhasználva kapjuk is QQ 1 = QQ 2 = Q 1 Q 2 = 0 amiből a már említett Fisher-Cochran tétel szerint következnek: rang(q) = n p (n p) = p p = r, (14.3) SS = η T Q 2 η, SS 2 = η T Qη függetlenek, 1 σ SS 2 2 χ 2 r, mivel QE(η) = QX 1 a 1 = 0 R n 1 σ SS 2 χ2 n p, mivel Q 2E(η) = Q 2 X 1 a 1 = 0 R n. Kézirat, módosítva: 2006. október 24.

182 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT Használjuk most ezt az eredményt a szokásos origón nem átmenő regeressziós függvény esetében annak eldöntésére, hogy a független változók befolyásolják-e a függő változót, vagyis az a 0 + a 1 x k1 + a 2 x k2 + + a p x kp k = 1, 2,..., n regressziós függvény kapcsán vizsgáljuk a H 0 : a 1 = a 2 = = a p hipotézist. Ekkor a H 0 szerint szűkített modellben a maradék négyzetösszeg SS 1 = n (η k η) 2, k=1 amivel képezhetjük a meghatározottság fokát mérő un. determinációs együtthatót: Mivel H 0 esetén torzítatlan becslések, a σ 2 R 2 = 1 SS SS 1. SS n p 1 R 2 = 1 σ 2 SS 1 n 1 SS n p 1 SS 1 n 1 korrigált értékkel (is) szokás jellemezni a föggetlen változók hatásának mértékét. A H 0 hipotézis ellenőrzéséhez 14.3 szerint használhatjuk az SS 2 SS n p 1 p ilyenkor F eloszlású próba statisztikát. Következmény: = R2 1 R n p 1 F 2 (p;n p 1) (14.4) p Eredményeinket felhasználhatjuk az un. korrelációs-regressziós (lásd: 9.1 szakasz) statisztikai feladatok megoldásához. Legyen a statisztikai modellünk egy 1 + p dimenziós normális eloszlású v.v.v. n ismételt megfigyelésével kapcsolatos, jelölje a minta statisztikát Ha a mintatéren a η = [η 1, η 2,..., η n ] T { } ξ = [x kl ] l=1,2,...,p k=1,2,...,n valószínűségi mértéket tekintjük, 9.7 szerint ekkor η N ( Xa, σ 2 I n ) ξ = [ξ kl ] l=1,2,...,p k=1,2,...,n. feltételre vonatkozó feltételes eloszlás melletti ahol X = 1 x 11 x 1p 1 x 21 x 2p...... 1 x n1 x np

14.1. EGYENLŐ MÉRTÉKŰ, FÜGGETLEN MEGFIGYELÉSI HIBA 183 a nem origón átmenő lineáris regressziós probléma terv mátrixa. Ennek megfelelően fenti eredményeink a megelelő feltételes eloszlás mellett érvényesek. Ekkor pl. az â statisztika feltételes várható értéke a, de akkor feltétel nélküli várható értéke is, mivel a konstans (már nem függvénye ξ-nek), tehát a regressziós együtthatók a â becslése most is torzítatlan. Egy másik fontos következmény a többszörös korrelációs együttható próbája. Vizsgáljuk a H 0 : ρ η ξ = 0 hipotézist, ami 9.2 miatt az a 1 = a 2 = = a p = 0 feltétellel ekvivalens, tehát H 0 esetén (a feltétel mellett, de akkor nélküle is) Vegyük észre továbbá, hogy R 2 1 R n p 1 2 p F (p;n p 1). σ 2 R SS n p 1 D 2 (η k ) SS 1 n 1 torzítatlan becslések a feltételes eloszlás mellett, de akkor feltétel nélkül is, tehát 9.1 szerint kapjuk a többszörös korrelációs együttható korrigált, illeve ρ η ξ R ρ η ξ R nem korrigált becsését. Ha p = 1, kapjuk két normális eloszlású v.v. r korrelációs együtthatójának próbáját. Vegyük figyelembe, hogy 9.3 szerint ρ η ξ = r, és 9.5 felhasználásával a maradék négyzetösszeg SS = ( 1 η 2 k n η 2 ξk η n k ξ η ) 2 n 1 n ξ 2 k ξ 2, és így most R 2 = ˆr 2, ahol ˆr = 1 ξk η n k ξ η ( 1 n ξ 2 k ξ 2) ( 1 n η 2 k η 2) az un. empírikus korrelációs együttható. Továbbá egy F (1;n 2) eloszású v.v. egy T n 2 eloszlású négyzete, tehát H 0 : r = 0 esetén kapjuk a próba statisztikát. ˆr 1 ˆr 2 n 2 T n 2 Kézirat, módosítva: 2006. október 24.

184 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT 14.2. Korrelált megfigyelési hibák Vizsgáljuk most azt az esetet, amikor az ɛ megfigyelési hibák nem függetlenek, iletve szórásaik különbözőek. Ez az eset fordul elő akkor, amikor egy adott x i D helyhez több, η ij j = 1, 2,..., k ı megfigyelés tartozik, és ezek η i. = 1 ni n i j=1 η ij átlaga áll rendelkezésre. Tegyük fel tehát, hogy most a minta statisztika eloszlása: η N ( Xa, σ 2 Λ ) ahol Λ R n n adott pozitív definit szimmetrikus mátrix. Ekkor van olyan Λ 1 2 pozitív definit szimmetrikus mátrix az un. súlymátrix, melyre R p n Λ = Λ 1 1 2 Λ 2. ) Ekkor a ζ = Λ 1 2 η minta vektorra már ζ N (Λ 12 Xa, σ 2 I n hasonlóan nyerhetőek az teljesül. Ezt felhasználva, a â = ( X T Λ 1 X ) 1 X T Λ 1 η σ 2 σ 2 = 1 n SS = 1 ( η T Λ 1 η η T Λ 1 X ( X T Λ 1 X ) ) 1 X T Λ 1 η n σ 2 s 2 R = 1 n p SS ahol most is teljesül â N (a, σ ( 2 X T Λ 1 X ) ) 1 1 SS χ 2 σ 2 n p és â és s 2 R függetlenek. Vizsgáljuk most az ismételt megfigyelés esetét, amikor minden x i értékhez k i számú η ij megfigyelés tartozik (i = 1, 2,... n). Ekkor és az ε i N ( ) σ 0; ki η i = a T x i + ε i i = 1, 2,... n i = 1, 2,... n hiba tagok függetlenek. Tehát Λ = 1 k 1 0 0 1 0 k 2 0...... 1 0 0 k n, amivel a következő ki η i., ki x i i = 1, 2,... n (14.5)

14.2. KORRELÁLT MEGFIGYELÉSI HIBÁK 185 súlyozott minta elemeket és független változó vektorokat használjuk. szórásnégyzetének becslésére használhatjuk az Ekkor a hiba statisztikákat, melyekből s 2 i = 1 k i 1 k i j=1 ( ηij η i. ) 2 i = 1, 2,..., n 1 n σ 2 i=1 (k i 1) s 2 i χ 2 N n miatt kapjuk a σ 2 S 2 = 1 N n n i=1 (k i 1) s 2 i torzítatlan becslést, ahol N = n i=1 k i, és nyilvánvalóan S 2 és SS (ill. â) függetlenek, ahol most n SS = k i ( ηi. x T i â) 2. i=1 Mivel az (N n) S 2 és SS négyzetösszegek függetlenek, és ha modellünk helyes, akkor (N n) S 2 σ 2 χ 2 N n SS σ 2 χ2 n p vagyis mindkét négyzetösszegből azonos szórásra következtethetünk. Ezt felhasználva, a két szórás azonosságának, vagy másképpen a linearitás hipotézisének ellenőrzésére használhatjuk az ilyenkor SS 1 S 2 n p F n p,n n eloszlású próba statisztikát. A hipotézis elfogadása esetén ezeket összevonva nyerhető a σ 2 s 2 R = 1 ( (N n) S 2 + SS ) (14.6) N p még nagyobb szabadságfokú χ 2 eloszlásra alapozott (tehát pontosabb) torzítatlan becslés. Könnyen ellenőrízhető, hogy az itt szereplő két négyzetösszeg összevonásával pontosan az η ij x i i = 1, 2,..., n j = 1, 2,..., k i (14.7) minta elemekre vonatkozó regressziós feladat maradékát kapjuk, ugyanis n k i ( ) ηij a T 2 x i = n k i [( )] ηij η i ) + ( η i a T 2 x i = i=1 j=1 i=1 j=1 = (N n) S 2 + SS. Mindez azt is jelenti, hogy a 14.5 és 14.7 mintákból azonos becslést kapunk a regressziós együtthatókra, és a modell helyes volta esetén az 14.6 becslést használhatjuk a korábban tárgyalt intervallum becslésekhez és hipotézis vizsgálatokhoz. Kézirat, módosítva: 2006. október 24.

186 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT 14.3. Ridge becslés Térjünk ismét vissza az egyenlő és független hibák esetéhez, tehát amikor a minta statisztika η N ( Xa, σ 2 I n ). Mint láttuk, az a â = ( X T X ) 1 X T η becslés torzítatlan, és a becslés kovariancia mátrixának nyoma, a komponensek szórásnégyzetének összege ( (X tr (cov(â, â)) = σ 2 tr T X ) ) 1 mint egyfajta össz- hatékonysági mutató értékelhető. Jelölje λ ı i = 1, 2,... p az X T X mátrix sajátértékeit, és v 1, v 2,..., v p R p a megfelelő sajátvektorok ortonormált rendszerét. Ezekkel a következő, ugynevezett ridge becslést vizsgáljuk: Mivel a a ε = ( p i=1 1 ε + λ ı v ı v T ı ) a ε = ( X T X + εi n ) 1 X T η, X T η ε 0. a ridge becslés ugy nyerhető, hogy a független változók X-ben felsorolt vektoraihoz hozzávesszük még a εi n mátrixot, és a megfelelô függő változókat 0-nak választjuk. Ez a becslés minden ε 0 esetén megadható, és ε = 0 esetben a korábbi maximum likelihood becslést kapjuk vissza. Vizsgáljuk most ezt a becslést, melyre ( p i=1 E(a ε ) = ) ( p ) 1 v i vi T λ i v i vi T a = ε + λ i i=1 ( p i=1 ( p i=1 1 ε + λ i v i v T i λ i ε + λ i v i v T i ) ) X T Xa = ami csak akkor lehet torzítatlan, ha ε = 0. A becslés kovariancia mátrixa ( p ) cov(a ε, a ε ) = σ 2 λ i (ε + λ i=1 i ) v iv T 2 i, a becsülni kívánt paramétertől való eltérésére pedig kapjuk: ( ) d 2 (ε) = E (a ε a) T (a ε a) = E ( a ε E(a ε ) 2) + E(a ε ) a 2 = a p σ 2 λ i + ε 2 (a T v i ) 2 i=1 (ε + λ i ) 2 mely az ε = 0 esetben a maximum likelihood becslés távolságát adja az a paramétertől. Ezt a kifelyezést ε-szerint deriválva kapjuk ( p 2λ i σ 2 (a T v i ) 2 ε ), (*) (ε + λ i ) 3 i=1

14.4. NEMLINEÁRIS REGRESSZIÓS FÜGGVÉNYEK 187 mely kifejezés ε-nak folytonos függvénye, és ε = 0 esetben negatív, tehát a fenti értelemben vett távolság csökkenthető a maximum likelihood becsléshez képest egy alkalmas 0 < ε választásával. Sajnos (*) zérushelye, és igy d 2 minimum helye az a és σ ismerete nélkül nem aható meg, de a maximum likelihood becslések jó kiinduló pontot adnak, és a szokásos eljárás az, hogy ε értékét ezen induló érték környezetében változtatva, vizsgáljuk a becslések változását. Ha a sajátértékek elég nagyok, az optimális ridge becslés nem különbözik lényegesen az â becsléstől, de az ugynevezett gyengén meghatározott esetben, amikor van közel zérus sajátérték, az optimális ridge becslés már jelentősen eltérhet ettől, és lényegesen jobb eredményre vezethet. Bizonyítás nélkül megjegyezzük, hogy minden ridge becslés az a a 2 függvény minimumát adja a n (η i a T x i ) 2 = c i=1 feltétel mellett, ahol c egy (ε-tól függô) állandó. Magát az elnevezést (ridge=gerinc) ez indokolja, az alkalmazói gyakorlatban pedig az a jelentősége, hogy a gyengén meghatározott esetekben a szélsősőgesen nagy hibájú becslések helyet, torzított, de mégis pontosabb becslés nyerhető. 14.4. Nemlineáris regressziós függvények Térjünk most vissza az eredeti 14.1 feladathoz, de most az f regressziós függvényt nemlineáris függvények valamilyen halmazában keressük. A polinom függvény esetét már láttuk, amikor új változók bevezetésével lineáris regressziós függvény keresésére vezettük azt vissza. Vizsgáljuk pl. az un. exponenciális regressziós függvény esetét, amikor ahol a, b ismeretlen paraméterek. Ha tehát f(x) = e ax+b x R, η i = e ax i+b + ɛ i i = 1, 2,... n mindkét oldal logaritmusát véve, a jobboldalt közelítve elsőrendű Taylor polinomjával az e axı+b pontban, kapjuk ahol δ i N τ i = ln(η i ) = ax i + b + δ i i = 1, 2,... n, ( σ ) 0; e ax i+b i = 1, 2,... n függetlenek, és σ az eredeti megfigyelési hibák állandó szórás, melynek kis értéke esetén elhanyagolható a közelítésből eredő hiba. Ekkor a hibák szórása függ a becsülní kívánt paraméterektől Kézirat, módosítva: 2006. október 24.

188 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT is, tehát az ilyenkor szükséges súlymátrixot csak közelíteni tudjuk az y = (y 1, y 2,... y n ) megfigyelt mintából Tehát az Λ 1 2 = 0 0 1 0 0 e ax 2+b...... 1 0 0 e axn+b 1 e ax 1+b megfigyelt mintával, és ỹ = (y 1 ln(y 1 ), y 2 ln(y 2 ),, y n ln(y n )) X = x 1 y 1 y 1 x 2 y 2 y 2. x n y n. y n 1 0 0 y 1 1 0 0 y 2...... 1 0 0 súlyozott terv mátrixszal kell a lineáris regressziós függvény paramétereit becsülni. Ha az eredeti megfigyelési hibák y n. σ = D(η ı) e ax i+b i = 1, 2,... n relatív szórása állandó, ami sok esetben elfogadható, nincs szükség a súlyokra, az megfigyelt mintával és az ỹ = (ln(y 1 ), ln(y 2 ),, ln(y n )) X = x 1 1 x 2 1.. x n 1 terv mátrixszal kell a paramétereket becsülni. Más, nemlineáris regressziós függvény esetén is találhatunk alkalmas transzformációt az 14.1 linearizálására. Most egy általános esetben használható iterációs eljárást mutatunk, melynek kezdőértékei meghatározására használhatjuk a fenti módszereket. Legyen a regressziós föggvény f : R q+p R (x, a 1, a 2,..., a p ) f(x, a 1, a 2,..., a p ) ahol x R q és a 1, a 2,..., a p R az ismeretlen paraméterek. Tegyük fel továbbá, hogy f a paraméterek szerint differenciálható, akkor az x ı R q i = 1, 2,... n pontok ismeretében

14.5. FELADATOK 189 az f függvényt a Taylor formulával közelítve egy a 0 1, a0 2,..., a0 p R kezdőértékkel, kapjuk az η i f(x i, a 0 1, a 0 2,..., a 0 p) p a j f(x i, a 0 a 1, a 0 2,..., a 0 p) + ɛ i j j=1 i = 1, 2,... n lineáris regressziós feladatot, melynek a j = a j a 0 j javításokkal kapjuk az új j = 1, 2,... p megoldásaval mint ã 0 j = a0 j + a j j = 1, 2,... p kezdőértékeket, és ha az eljárás konvergensnek bizonyul, az utolsó lépés [ ] X = f(x i, a 0 a 1, a 0 2,..., a 0 p) j i=1 i=1,2,...,n j=1,2,...,p terv mátrixszával és az n ( ) 2 SS(y) = y i f(x i, a 0 1, a0 2,..., a0 p ) a j f(x i, a 0 1 a, a0 2,..., a0 p ) j maradék négyzetösszegből számolhatjuk a lineáris esetben érvényes, most pedig jó közelítésként használható szórásokat, intervallum becsléseket. Egy ilyen algoritmus konvergenciájára általában nem biztosított, ezért lépésenként esetleg egyéb módon, pl. ridge becsléssel ezen javíthatunk. A konvergencia ténye illetve sebessége sokszor erősen függ a jó kezdőérték választástól, ezért azt esetleg egy alkalmas linearizálással érdemes megválasztani. 14.5. Feladatok 1. Egy egyenletesen gyorsuló mozgást végző pont által megtett utat mérve, a mozgás kezdete óta eltelt t = 1, 2, 3, 4 [s] időpontokban, kaptuk s = 1, 5, 8, 16 [m]. Becsüljük a gyorsulást, a kezdősebességet és az út mérésének hibáját! 2. Ha az előző feladat mérései 2,2,3, illetve 3 ismételt mérés átlagai, adjuk meg a paraméterek becsléseit! Kézirat, módosítva: 2006. október 24.

190 14. FEJEZET. LINEÁRIS FÜGGŐSÉGI KAPCSOLAT

15. fejezet Szórásanalízis Vizsgáljuk a következő problémát. Egy megfigyelhető skalár v.v. értéke néhány további változó, úgynevezett faktor, véges sok lehetséges értékétől, vagy másképpen szintjétől az alábbi módon függ: ξ i,j,k,... = µ + a i + b j + ab ij +... + ε i,j,k,... (i, j, k,...) J (15.1) ahol a szereplő modell tagok jelentése a következő. ab ij : ε i,j,k,... : µ : az un. teljes vérható érték a i : az A faktor i-edik szintjének additív hatása b j : a B faktor j-edik szintjének additív hatása. az A és B faktorok i és j szintjéhez tartozó kölcsönös hatás, interakció a megfigyelés véletlen hibája A J halmaz a faktorok olyan szintjeinek kombinációit tartalmazza, melyekkel megfigyelést végeztünk, ezért ennek megadása az un. kisérlet tervet, vagy kisérleti elrendezést jelenti. A statisztikai modellben ξ i,j,k,... jelenti a mintaelem statisztikákat, J elemszáma pedig a mintatér dimenziója. A továbbiakban mindíg feltételezzük, hogy µ egy ismeretlen skalár paraméter, a megfigyelés véletlen hibája pedig ε i,j,k,... N (0, σ) (i, j, k,...) J függetlenek, a faktorok hatásainak megfelelő többi tagról pedig az alábbi két lehetőség egyikét tételezzük fel: 1. ismeretlen skalár paraméterek, egyértelműségük érdekében feltesszük a i = b j = ab ij = ab ij =... = 0 (15.2) J J J J jelezve ezzel azt is, hogy ezek a paraméterek a faktorok megfelelő szintjeihez tartozó eltérést okozó hatások mértékei (fix vagy rögzített hatások modellje, 15.2 teljesülése mindíg feltételezhető, ha ugyanis nem teljesül, egyszerű át-paraméterezéssel az új paraméterekre már teljesül 15.2); 191

192 15. FEJEZET. SZÓRÁSANALÍZIS 2. független, centrált normális eloszlású véletlen mennyiségek (véletlen hatások modellje); a i N (0, σ A ), b j N (0, σ B ), ab ij N (0, σ AB ) (i, j, k,...) J függetlenek, Mindkét esetben fontos szerepe van a J index-halmaznak, vagy másképpen kisérlettervnek. Ennek megfelelően a statisztikai modellünkben egy ξ i,j,k,... mintaelem J egy (i, j, k,...) elemével azonosítható, ezért fogjuk a minta statisztikát ξ = ( ) ξ i,j,k,... (i,j,k,...) J módon jelölni, vagy ha a J halmazt már azonosítottuk, röviden a ξ = ( ) ξ i,j,k,... jelölést használjuk, és a megfigyelt mintát pedig x = (x i,j,k,... ) jelöli. A J halmaz elemszámát, vagyis a mintatér dimenzióját mindíg n jelöli majd. 15.1. Rögzített hatások modellje A faktorok számában és kapcsolatában, vagy a kisérleti elrendezésben (J) különböző modell vizsgálható az 1. feltételezés mellett. A következőkben megadjuk a paraméterek becsléseit, és vizsgáljuk a faktorok hatásával kapcsolatos hipotéziseket a legegyszerűbb esetben. Egyszerű osztályozás, különböző ismétlésekkel. Legyen az (15.1) egyenlet, és ennek megfelelően most a minta-elem statisztikák ξ ij = µ + a i + ε ij j = 1, 2,... n i i = 1, 2,... r vagyis az egyetlen A faktor a i eltérítő hatásai szerepelnek a modellben. Mindez úgy is értelmezhető, hogy több, r-számú független normélis eloszlásból vett, r i elemű mintánk van, közös σ szórással és µ + a i várható értékkel. 1. A paraméterek becslése. Vezessük be a ξi. = 1 n i n i j=1 ξ i,j i = 1, 2,... r ξ.. = 1 n statisztikákat, ahol n = r i=1 n i ekkor a r n i ξi. = 1 n i=1 r n i i=1 j=1 ξ i,j µ + a i ξ i. a i ξ i. ξ.. (15.3) µ ξ..

15.1. RÖGZÍTETT HATÁSOK MODELLJE 193 becslések torzítatlanok. Mivel ezek a statisztikák egy x = (x i,j ) R n megfigyelt minta lineáris függvényei, megadhatók a Q 1, Q 2, és Q 3 n n típusú mátrixok, melyekre Q 1 x = ( x.. ) Q 2 x = ( x i. x.. ) Q 3 x = (x ij x i. ) x R n. Ekkor a Q 1 mátrix minden eleme 1 n, tehát rangja r 1 = 1, és szimmetrikus. Q 2 első n 1, majd következő n 2, stb. sora azonos, de még ezekből is kikombinálható a zérusvektor az n i együthatókkal, ezért rangja r 2 r 1. Könnyen ellenőrízhető, hogy Q 2 szimmetrikus, ugyanis x, y R n : y T Q 2 x = r n i ȳ i. x i. n x.. ȳ.. = x T Q 2 y. i=1 Ebből, és az I n = Q 1 + Q 2 + Q 3 összefüggésből következik, hogy Q 3 is szimmetrikus, továbbá Q 3 z (k) = 0 R n, ahol z (k) ij = { 1 0 ha i = k és j = 1, 2,... n i egyébként k = 1, 2,... r miatt z (k) R n lineárisan független vektorok, teát Q 3 rangja r 3 n r. Tehát teljesül a χ 2 eloszlás partíciós tulajdonságaként megismert Fisher-Cochran tétel 1. feltétele, amiből következnek: n = r 1 + r 2 + r 3 ami csak úgy teljesülhet, hogy r 2 = r 1 és r 3 = n r. A minta statisztika most ξ N ((µ + a i ), σ 2 I n ), és így Q 1 ξ = ( ξ.. ), Q 2 ξ = ( ξ i. ξ.. ), Q 3 ξ = (ξ ij ξ i. ) függetlenek, mint ahogyan a teljes (T ) négyzetösszeg felbomlik a teljes átlagnak (M) megfelelő, a csoportok közötti (B), és csoportokon belüli (W ) négyzetösszeg független összegére: T = ξ T ξ = r n i i=1 j=1 ξ 2 i.j M = ξ T Q 1 ξ = n ξ 2.. B = r ξ T Q 2 ξ = n i ( ξi. ξ ) 2.. W = ξ T Q 3 ξ = i=1 r n i ( ξij ξ ) 2 i. i=1 j=1 Kézirat, módosítva: 2006. október 24.

194 15. FEJEZET. SZÓRÁSANALÍZIS Továbbá teljesül Q 3 (µ + a i ) = 0 R n, tehát 1 W χ 2 σ 2 n r, amiből kapjuk a véletlen hiba szórásnégyzetének σ 2 s 2 = W n r torzítatlan becslését. Mivel ξ i. N módon nyerhetők az µ + a i ξ i. ± t α s ni ( ) σ µ + a i, ni i = 1, 2,... r és ξ.. N (µ, σ n ),a szokásos a i ξ i. ξ.. ± t α s 1 n i 1 n i = 1, 2,... r µ ξ.. ± t α s n (1 α) szintű intervallum becslések, ahol t α a T n r eloszlás megfelelő kritikus értéke. További fontos probléma egy r i=1 c i(µ + a i ) = r i=1 c ia i u.n. kontraszt becslése, ahol r i=1 c i = 0. Mivel ( ) r i=1 c r c i ξ i. N a i, σ 2 i i=1 n i, kapjuk a intervallum becslést. 2. Hipotézis vizsgálat. r c i a i i=1 r c i ξi. ± t α s r i=1 Vizsgáljuk most a H A : a 1 = a 2 =... = a r = 0 hipotézist, vagyis azt, hogy a faktornak nincs eltérítő hatása, vagy másképpen, a minták várható értéke azonos. A χ 2 -eloszlás mint négyzetösszeg eloszlása alapján B várható értékére kapjuk: E(ξ T Q 2 ξ) = E(B) = σ 2 (r 1) + i=1 c 2 i n i r n i a 2 i. (15.4) Tehát az f = B W n r r 1 statisztika eloszlása F (r 1,n r) ha H A teljesül, amiből a H A hipotézis eldöntésére szolgáló α terjedelmű (egy-oldali) kritikus tartomány: { K = x = (x ij ) R n B(x) W (x) n r } r 1 > b α, ahol b α az F (r 1,n r) eloszlás megfelelő kritikus értéke. A kritikus tartományt azért választjuk így, mert az alternatív hipotézis esetén, amikor is legalább egy a i > 0, az f próbastatisztika értéke várható értékben nő, mivel B és F ilyenkor is függetlenek, i=1

15.1. RÖGZÍTETT HATÁSOK MODELLJE 195 és B várható értékének növekménye (15.4) szerint r i=1 n ia 2 i. A fentiek táblazatos összefoglalója az alábbi Szórásanalízis táblázat Szóródás Szabadsági Négyzetösszeg oka fok Átlag M = n ξ 2.. 1 Faktor B = r i=1 n i ( ξi. ξ ) 2 B.. r 1 Véletlen W = r ni ( i=1 j=1 ξij ξ ) 2 i. n r Teljes T = M + B + W = r i=1 ni j=1 ξ2 ij n F (r 1,n r) W n r r 1 Vizsgáljuk most a H A : a 1 = a 2 =... = a r = 0 hipotézist, ha r < r. négyzetösszegeket az alábbi alakban: Írjuk a fenti B = W = r n i ( ξi. ξ ) 2.. = i=1 r n i ( ξij ξ ) 2 i. = i=1 j=1 r i=1 n i ξ2 i. n ξ 2.. r n i ξ 2 ij i=1 j=1 r i=1 n i ξ2 i. ezeket figyelembe véve, a szűkített modellben, amikor is a ξ ij i > r minta elemeket figyelmen kívűl hagyjuk, nyerjük a B = W = r i=1 r n i i=1 n i ξ2 i. n ξ 2.. ahol n = r ξ 2 ij j=1 i=1 n i ξ2 i. r i=1 n i, ξ.. = 1 n r n i i=1 j=1 ξ ij független négyzetösszegeket, melyek közül W χ 2 n r, és W = W + r n i i=r +1 j=1 ξ 2 ij r i=r +1 n i ξ2 i. miatt B W függetlenek. Mivel B pontosan akkor χ 2 r 1 eloszlású, ha H A kapjuk az f = B W n r r 1 próba statisztikát, mely H A esetén F (r 1,n r) eloszlású. teljesül, Kézirat, módosítva: 2006. október 24.

196 15. FEJEZET. SZÓRÁSANALÍZIS 15.2. Véletlen hatások modellje Az alábbiakban a 2. feltételezésnek megfelelő legegyszerűbb modellel foglalkozunk, vagyis egy (véletlen hatású) faktor van, és minden szinthez azonos számú ismételt megfigyelés. A minta elemek most ξ ij = µ + a i + ε ij j = 1, 2,... t, i = 1, 2,... r ahol t > 1 az ismétlések közös száma, tehát n = r t, és most a i N (0, σ A ), N (0, σ) j = 1, 2,... t, i = 1, 2,... r függetlenek. Mivel σ 2 + σ 2 A ha i = k és j = l cov(ξ ij, ξ kl ) = σ 2 A ha i = k és j l, 0 egyébként ε ij a korábbi 15.1 szakasz jelöléseit használva (figyelembe véve, hogy n i = t i = 1, 2,... r), kapjuk a ξ = (ξ ij ) minta statisztikára ξ N µ., σ 2 I n + tσ 2 A (Q 1 + Q 2 ). µ Tehát Q 1 ξ = ( ξ.. ) N µ. µ, (σ 2 + tσ 2 A )Q 1 Q 2 ξ = ( ξ i. ξ.. ) N ( 0, (σ 2 + tσ 2 A )Q ) 2 Q 3 ξ = (ξ ij ξ i. ) N ( ) 0, σ 2 Q 3 amiből nyerhetők a µ ξ.. σ 2 1 n r W σ 2 A 1 ( 1 t r 1 B 1 ) n r W torzítatlan becslések. Itt az utolsó becslés csak akkor szükséges, ha σ A > 0. Vizsgáljuk most a H A : σ A = 0 hipotézist. A fentiekből az is következik, hogy az f = B W n r r 1 statisztika eloszlása F (r 1,n r) ha H A teljesü, tehát pontosan az 15.1-ben kapott módon kell a próbát végrehajtani. A kritikus tartomány változatlan, csupán a próba ereje változik.

15.3. FELADATOK: 197 15.3. Feladatok: 1. Egy mérendő mennyiséget három különböző helyen, 3-3 párhuzamos méréssel próbáltak meghatározni. Az alábbi statisztikákat kaptuk: x 1. = 12.13 s 1 = 0.015 x 2. = 12.10 s 2 = 0.011 x 3. = 12.14 s 2 = 0.012 Van-e kimutatható különbség a három helyen kapott eredmények között? Ha igen, van-e legalább két hely, ahol a kapott eredmények nem különböznek szignifikánsan? 2. 30 véletlenszerűen választott egypetéjű ikerpár inteligecia hányadosát mérték ugyanazon IQ feladatlappal. Tekintsük a mért értékeket 30, egyenként két-elemû csoport tagjainak. Mennyi a csoportok közti (tehát az embrek közti véletlen) különbözôsg mértéke (szórása), illetve van-e, és mennyi a feladatlap hibájából eredô pontatlanság (szórás), ha a csoportok közötti és csoporton belüli négyzetösszegek: S B = 25.921 S W = 6.050 3. Öt egyenként négyfôs csoport öt különböző étrend szeint táplálkozik. Egy hét múlva a súlyváltozások az alábbiak voltak: 1 2 3 4 5 +3 +2 +4 +3 +1-2 0 0 0-1 0 +2 +1-1 -2-2 +1 +2 +1-1 Van-e kimutatható különbség az egyes étrendek hatása között? Ha igen, milyen határok között van ez a hatás étrendenként 90%-os biztonsággal? Kézirat, módosítva: 2006. október 24.

198 15. FEJEZET. SZÓRÁSANALÍZIS

16. fejezet Nem paraméteres próbák Eddigi vizsgálataink célja paraméterek becslése, illetve velük kapcsolatos hipotézisek eldöntése volt. A továbbiakban néhány olyan próbát ismertetünk, ahol (még ha paraméterek is szerepelnek majd) nem a paraméterek értéke a vizsgálat célja, hanem a megfigyelt valószínűségi változók eloszlása vagy függetlensége. 16.1. Illeszkedés vizsgálat Illeszkedés vizsgálaton olyan hipotézis eldöntését értjük, hogy a megfigyelt valószínűségi változó ismeretlen eloszlásfüggvénye azonos-e (illeszkedik) egy adott F 0 hipotetikus eloszlásfüggvénnyel. Jelölése: H 0 : F = F 0. Egyszerű valószínűségi változó esetén a statisztikai modellről, mint egy teljes eseményrendszer megfigyeléséről is beszélhetünk, és a hipotézist H 0 : p k = p k0 k = 1, 2,....r jelöli, ahol (p k ) k=1,2,...r az ismeretlen, (p k0 ) k=1,2,...r pedig a hipotetikus (véges) diszkrét valószínűségeloszlás. Ha a hipotetikus eloszlásfüggvény, illetve p k0 néhány ismertlen paraméter függvényeként adott, becsléses illeszkedés vizsgálatról beszélünk. 1. Illeszkedés vizsgálat χ 2 próbával Legyen a s.m. egy r tagú teljes eseményrendszer n-ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát ν = (ν 1, ν 2,..., ν r ) ahol a p k valószínűségű k-adik esemény megfigyelt gyakorisága ν k. Vizsgáljuk a H 0 : p k = p k0 k = 1, 2,....r hipotézist, ahol (p k0 ) k=1,2,...r adott hipotetikus (véges) diszkrét valószínűségeloszlás. Ekkor ν polinomiális eloszlású, és elég nagy n esetén (n p k > 10) 8.4 szerint H 0 esetén: r (ν k np k0 ) 2 χ 2 r 1. np k0 k=1 199

200 16. FEJEZET. NEM PARAMÉTERES PRÓBÁK Válasszuk 0 < α << 1 értékhez a χ 2 α kritikus értéket úgy, hogy ha η χ2 r 1 akkor P (η > χ 2 α) = α, így ( r ) (ν k np k0 ) 2 P H0 > χ 2 α = α, np k0 k=1 tehát kaptuk a K = { α terjedelmű kritikus tartományt. Megjegyzések: (n 1, n 2,..., n r ) X } r (n k np k0 ) 2 > χ 2 α 1. A féloldali kritikus tartomány alkalmazását az indokolja, hogy H 0 esetén E(ν k ) = np k0 k = 1, 2,....r, és ezért a várható érték minimum tulajdonsága miatt k=1 np k0 E ( (ν k np k0 ) 2) E ( (ν k np k ) 2), tehát az alternatív hipotézis esetén a próba statisztika várható értéke nagyobb lesz. 2. Ezt a próbát tetszőleges valószínűségi változó n-ismételt megfigyelése esetén úgy alkalmazhatjuk, hogy a számegyenes egy (például intervallumokra) történő felosztásával, a ν k = R = r k=1 I k (16.1) n 1 {ξi I k } k = 1, 2,....r, i=1 gyakoriságokkal vizsgáljuk a H 0 : F = F 0 hipotézis helyett a H 0 : p k = [F 0 ] Ik k = 1, 2,....r hipotézist. Ha ugyanis H 0 -ot elutasítjuk, H 0 sem teljesülhet, továbbá H 0 elfogadása esetén H 0 -ban sincs okunk kételkedni. Tehát az így végrehajtott próba elsőfajú hibája α, de a másodfajú hiba mértéke igen nagy is lehet, hiszen két eloszlásfüggvény lehet attól még különböző, ha megváltozásaik azonosak a számegyenes véges sok intervallumán. Ez ellen úgy védekezhetünk, hogy a 16.1 felosztást finomítjuk, aminek gátat szab az a korlát, hogy a megfigyelt gyakoriságok várható értéke legalább 10 legyen. 3. Ha a hipotetikus valószínűségeloszlás néhány ϑ 1, ϑ 2,..., ϑ s meghatározó paraméter függvényeként adott, tehát vizsgálnunk kell a H 0 : p i = p i0 (ϑ 1, ϑ 2,..., ϑ s ) i = 1, 2,....r hipotézist, a valószínűséghányados próba alkalmazásával kapjuk a következő becsléses illeszkedési próbát. Vezessük be a ϑ s+1, ϑ s+2,..., ϑ r 1 (r 1 s)-számú paramétert, melyekkel p s+i = p s+i 0 (ϑ 1, ϑ 2,..., ϑ s ) + ϑ s+i i = 1, 2,....r 1 s,

16.1. ILLESZKEDÉS VIZSGÁLAT 201 tehát az így nyert ugyancsak meghatározó (r 1)-számú paraméterrel hipotézisünk H 0 : ϑ s+i = 0 i = 1, 2,....r 1 s alakban írható. Eljárásunk tehát a következő: (a) H 0 esetén megadjuk a ϑ i ˆϑ i i = 1, 2,....s maximum likelihood becsléseket, amivel p i0 ˆp i0 = ˆp i0 (ˆϑ 1, ˆϑ 2,..., ˆϑ s ) i = 1, 2,....r, és a likelihood függvény logaritmusának maximuma ekkor egyébként pedig A 13.3 állítás szerint n! sup ln L = ln + H 0 ν 1 ν 2... ν r sup ln L = ln n! ν 1 ν 2... ν r + 2 ln λ = 2 r i=1 r ν i ln ˆp i0, i=1 r i=1 eloszlása közelítően χ 2 r 1 s. Használjuk továbbá az x ln x a ν i ln ν i n. ν i ln ν i nˆp i0 (16.2) 1 (x a) + (x a)2 2a másodfokú Taylor polinommal nyerhető közelítést, akkor a próba statisztika 2 ln λ r (ν i nˆp i0 ) 2 i=1 nˆp i0 (16.3) alakra hozható. (b) Használjuk a r (ν i nˆp i0 ) 2 i=1 nˆp i0 próba statisztikát, melynek eloszlása H 0 esetén most χ 2 r 1 s. 2. Kolmogorov próba Kézirat, módosítva: 2006. október 24.

202 16. FEJEZET. NEM PARAMÉTERES PRÓBÁK Legyen a s.m. egy folytonos eloszlásfüggvényű v.v. n-ismételt megfigyelésével kapcsolatos. Jelölje a minta statisztikát ξ = (ξ 1, ξ 2,..., ξ n ), az ismeretlen eloszlásfüggványt F, és vizsgáljuk a H 0 : F = F 0 hipotézist, ahol F 0 adott hipotetikus (folytonos) eloszlásfüggvény. Jelölje továbbá az empirikus eloszlásfüggvényt (lásd 11.2) a minta függvényeként F n ξ (z) = 1 n n 1 {ξk <z} z R, k=1 és vizsgáljuk a statisztikát. Mivel = sup F n ξ (z) F 0 (z) z R és F 0 folytonossága miatt {ξ k < z} = {F 0 (ξ k ) < F 0 (z)} \ {F 0 (ξ k ) = F 0 (z)} z R, {F 0 (ξ k ) = F 0 (z)} = {a ξ k b} ahol a = inf y R {y F 0(y) = F 0 (z)} továbbá H 0 esetén 3.3 szerint b = sup {y F 0 (y) = F 0 (z)}, y R Tehát τ k = F 0 (ξ k ) U(0; 1) k = 1, 2,....r. P H0 ( = sup 0<y<1 1 n ) n 1 {τ k <y} y = 1, k=1 vagyis H 0 esetén eloszlása olyan, mint egy U(0; 1) eloszlásból vett mintából származó empirikus eloszlásfüggvény és az igazi eloszlásfüggvény eltérésének suprémumáé. Kolmogorov megmutatta, hogy n eloszlásfüggvénye megadható (n értékétől függetlenül), ez az un. Kolmogorov féle K függvény (lásd: Táblázatok melléklet). Válasszunk tehát egy 0 < α << 1 értéket, akkor kapjuk az { ( ) } n x R n K sup Fx n (z) F 0(z) > 1 α z R α terjedelmű kritikus tartományt H 0 eldöntésére. 16.2. Függetlenség vizsgálat Legyen a s.m. két teljes eseményrendszer n ismételt megfigyelésével kapcsolatos, jelölje ν kl k = 1, 2,... r l = 1, 2,..., s

16.2. FÜGGETLENSÉG VIZSGÁLAT 203 az első eseményrendszer k-adik és a másik l-edik tagja együttes bekövetkezésének gyakoriságát, és p kl k = 1, 2,... r l = 1, 2,..., s ennek valószínűségét. Vizsgáljuk a H 0 : p kl = p k p l k = 1, 2,... r l = 1, 2,..., s hipotézist, ahol s p k = p kl r p l = p kl k = 1, 2,... r l = 1, 2,..., s l=1 k=1 az eseményrendszerekhez tartozó két valószínűségeloszlás. Tehát egy r s tagú teljes eseményrendszer megfigyelése esetén egy becsléses illeszkedés vizsgálatot kell elvégeznünk. Használjuk az r 1 + s 1 számú meghatározó paraméter p k ˆp k = ν k n p l ˆp l = ν l n maximum likelihood becslését, amiből k = 1, 2,... r 1 l = 1, 2,..., s 1 ahol ν k = s ν kl ν l = l=1 p r ˆp r = ν r n p s ˆp s = ν s n, r ν kl k = 1, 2,... r l = 1, 2,..., s. k=1 A becsléses illeszkedés vizsgálat próba statisztikájának szabadsági foka r s 1 (r 1) (s 1) = (r 1) (s 1) lesz, tehát válasszunk 0 < α << 1 értékhez χ 2 α kritikus értéket úgy, hogy ha η χ 2 (r 1) (s 1) akkor P (η > χ2 α) = α, ekkor ( tehát kaptuk a K = P H0 r k=1 s l=1 (n kl) l=1,...s k=1,...,r X r ν kl ν k ν l n ν k ν l n k=1 ) 2 > χ 2 α = α, ( s n kl n k n l n n k n l n l=1 ) 2 > χ 2 α kritikus tartományt, ahol az n kl megfigyelt gyakoriságokat az alábbi táblázatba rendezhetjük: I.es.r. II.es.r. 1 2 s Σ 1 n 11 n 12 n 1s n 1 2 n 21 n 22 n 2s n 2........ (16.4) r n r1 n r2 n rs n r Σ n 1 n 2 n s n Kézirat, módosítva: 2006. október 24.

204 16. FEJEZET. NEM PARAMÉTERES PRÓBÁK Megjegyzések: 1. A próba elvégezhetőségének feltétele, mint a χ 2 -es illeszkedés vizsgálatnál már említettük, hogy a várható gyakoriság a fenti tábla minden cellájában legalább 10 legyen. 2. Mint azt már korábban jeleztük, a féloldali kritikus tartományt a másodfajú hiba csökkentése miatt alkalmazzuk. 3. Tetszőleges valószínűségi változók esetén, a korábbi esethez hasonlóan, most mindkét változó értékkészlete számára kell a számegyenes egy-egy felosztását megadnunk. 16.3. Homogenitás vizsgálat Most két vagy több eseményrendszerhez illetve valószínűségi változóhoz tartozó eloszlás azonosságát vizsgáluk. 1. Homogenitás vizsgálat χ 2 próbával. Legyen a statisztikai modell N számú, egyenként r tagú teljes eseményrendszer megfigyelésével kapcsolatos. Jelölje ν = (ν ki ) i=1,2,...,r k=1,2,...,n (p ki ) i=1,2,...,r k=1,2,...,n a mintát illetve a megfelelő valószínűségeloszlásokat, ahol ν ki jelöli a k-adik eseményrendszer i-edik tagja gyakoriságát, illetve p ki ennek valószínúségét. Vizsgáljuk a H 0 : p 1i = p 2i =... p Ni i = 1, 2,..., r hipotézist a becsléses illeszkedés vizsgálathoz hasonlóan. Az N számú mintából H 0 esetén kapjuk a p ki ν i n maximum likelihood becsléseket, ahol k = 1, 2,..., N i = 1, 2,..., r ν i = N ν ki i = 1, 2,..., r és n = k=1 N n k. k=1 A valószínűséghányados próba, a becsléses illeszkedés vizsgálatnál látott módon, 16.2 szerint a N r 2 ν ki ln ν ki ν n i k n k=1 i=1 próba statisztikát eredményezi, amiből a függetlenség vizsgálatnál már megismert próba statisztikához jutunk, azzal a különbséggel, hogy az ott szereplő ν k statisztika szerepét most az n k (nem véletlen) minta elemszám veszi át. A szabadsági fok is változatlan, mivel az N (r 1) számú meghatározó paraméterből r 1 számú becsült paraméter

16.3. HOMOGENITÁS VIZSGÁLAT 205 van, a többi pedig ezekkel azonos (H 0 esetén eltérése ezektől 0), kapjuk tehát H 0 esetén a ( ) N r νki n k ν i 2 n χ 2 (N 1) (r 1) k=1 i=1 n k ν i n próba statisztikát. Vlásszunk tehát 0 < α << 1 értékhez χ 2 α kritikus értéket úgy, hogy ha η χ 2 (N 1) (r 1) akkor P (η > χ 2 α ) = α, akkor ( N ( ) r νki n k ν i 2 ) n P H0 > χ 2 α = α, k=1 i=1 i=1 n k ν i n vagyis kaptuk a H 0 eldöntéséhez az α terjedelmű (egyoldali) kritikus tartományt. Speciálisan N = 2 esetben a próba statisztika a következő alakban írható r ( 1 νi n 1 n 2 µ ) 2 i χ 2 r 1 ν i + µ i n 1 n, 2 ahol ν i és µ i jelöli a két eseményrendszerhez tartozó gyakoriságokat. Egy másik speciális eset amikor r = 2, tehát N számú esemény valószínűségének azonosságát vizsgáljuk, ekkor a próba statisztika a következő alakban írható: ( ) N 2 νk n k ν n n k ν (1 ) χ 2 ν N 1 n n k=1 ahol ν k jelöli az egyes események gyakoriságát, és ν = N k=1 ν k. Megjegyzés: A korábbi, χ 2 próbákhoz fűzött, alkalmazhatósággal illetve folytonos eloszlás esetével kapcsolatos megjegyzéseink most is érvényesek. A függetlenség vizsgálat kapcsán megismert (16.4) gyakorisági táblázat változatlan formában használható a próba statisztika számításához, csupán a H 0 hipotézis értelmezése jelent itt mást, nevezetesen nem két változó függetlenségét, hanem a minták azonos eloszlásból származását jelenti. 2. Wilcoxon próba. Legyen a statisztikai modell két folytonos eloszlásfüggvényű valószínűségi változó n 1 illetve n 2 ismételt megfigyelésével kapcsolatos, jelölje (ξ, η) = ( ξ 1, ξ 2,..., ξ n1, η 1, η 2,..., η n2 ) (16.5) a minta statisztikát, és vizsgáljuk a H 0 : F = G hipotézist, ahol F az első n 1, G pedig a további n 2 számú minta elem ismeretlen (folytonos) eloszlásfüggvénye. Rendezzük a 16.5 minta elemeit növekvő sorba, amit 1-valószínűséggel egyértelműen megtehetünk (lásd: 36. oldal 11. feladat). Jelölje a ξ 1, ξ 2,..., ξ n1 minta elemek helyét, azaz rangját ebben az n 1 + n 2 elemű rendezett mintában r 1, r 2,..., r n1, és vizsgáljuk a n 1 W n1 n 2 = k=1 r k n 1 (n 1 + 1) 2 Kézirat, módosítva: 2006. október 24.

206 16. FEJEZET. NEM PARAMÉTERES PRÓBÁK statisztikát. Ha r 1 < r 2 <... < r n 1 a rendezett rangokat jelöli, írhatjuk n 1 W n1 n 2 = (rk k), k=1 tehát W n1 n 2 a ξ k > η l feltételt teljesítő párok száma, vagyis a {W n1 n 2 = k} esemény annak valószínűsége, hogy az egyesített rendezett mintában, melyben minden sorrend egyformán valószínű H 0 esetén, a ξ minta elemeket összesen k számú η minta elem előzi meg. Tehát W n1 n 2 eloszlása H 0 esetén megadható (lásd: 12. oldal 9. feladat), továbbá megmutatható, hogy elég nagy n 1 és n 2 mellett W n1 n 2 eloszlása közel normális. Írjuk ehhez például n 1 n 2 esetben W n1 n 2 = 1 {ξ1 >η 1 } + 1 {ξ2 >η 2 } + + 1 {ξn1 >η n1 } + + 1 {ξ1 >η 2 } + 1 {ξ2 >η 3 } + + 1 {ξn1 >η n1 +1} +.......... + 1 {ξ1 >η n2 n 1 +1} + 1 {ξ 2 >η n2 n 1 +2} + + 1 {ξ n1 >η n2 }. +........... + 1 {ξ1 >η n2 } + 1 {ξ2 >η n2 1} + + 1 {ξn1 >η 1 } ahol soronként független, H 0 esetén 1 valószínűségű események indikátorainak összege 2 szerepel, ami a C.H.T. szerint közel normális eloszlású lesz elég nagy n 1 ( n 2 ) esetén, és így ezek összege W n1 n 2 is közel normális eloszlású. Határozzuk most meg W n1 n 2 várható értékét és szórását H 0 esetén. Írjuk ehhez most W n1 n 2 = 1 {ξ1 >η 1 } + 1 {ξ1 >η 2 } + + 1 { ξ 1 >η n2 } + 1 {ξ2 >η 1 } + 1 {ξ2 >η 2 } + + 1 {ξ2 >η n2 }.......... + 1 {ξn1 >η 1 } + 1 {ξ n1 >η 2 } + + 1 {ξ n1 >η n2 } + +., (16.6) akkor W n1 n 2 pontosan n 1 n 2 számú 1 2 valószínűségű esemény indikátorának összege, ezért E H0 (W n1 n 2 ) = n 1 n 2 2. A szórás megadásához vegyük észre, hogy 16.6 összeg sorösszegei azonos eloszlásúak, és egy sorösszeg szórásnégyzete két sorösszeg kovarianciája pedig n 2 1 4 + n 1 2(n 2 1) 12 = n 2(n 2 + 2) 12 n 2 1 3 + n 2(n 2 1) 1 ( 4 n2 ) 2 n 2 = 2 12,,

16.4. FELADATOK 207 amiből kapjuk D 2 H 0 (W n1 n 2 ) = n 1 n2(n 2 + 2) 12 + n 1 (n 1 1) n2 12 = n 1n 2 (n 1 + n 2 + 1). 12 Tehát nagy n 1, n 2 estén válasszuk az 0 < α << 1 értékhez az u α táblázati értéket úgy, hogy u N (0; 1) esetén P ( u > u α ) = α, akkor P H0 W n1 n 2 n 1 n 2 2 > u α = α, n 1 n 2 (n 1 +n 2 +1) 12 vagyis kaptuk a H 0 eldöntéséhez az α terjedelmű (kétoldali) kritikus tartományt. Megjegyzések: 1. Figyelemre méltó körülmény, hogy a W n1 n 2 statisztika megadásához a minta pontos ismerete sem szükséges, csupán az egyesített minta elemeinek rangsorára van szükség. 2. Ha a minta elemek pontatlan ismerete miatt a rangsor nem egyértelműen adható meg, az egyes ξ minta elemek lehetséges rangjaiból számolt átlagos ranggal szokás számolni. Ennek csak akkor van jelentősége, ha vannak azonos ξ és η minta elemek. 16.4. Feladatok 1. Készítsünk próbát egy r tagú teljes eseményrendszer s < r 1 számú tagja valószínűségével kapcsolatos H 0 : p 1 = p 10, p 2 = p 20,..., p s = p s0 hipotézis vizsgálatára! Kézirat, módosítva: 2006. október 24.

208 16. FEJEZET. NEM PARAMÉTERES PRÓBÁK

A. Függelék Mérték és integrál A.1. Mérték A.1. Definíció. Az Ω halmaz részhalmazainak nem üres H rendszere i) félgyűrű, ha A, B H A B H, A \ B = r H i H i H H i H j = i=1 i j = 1, 2,... r ; ii) gyűrű, ha A, B H A B, A \ B H ; iii) σ-gyűrű, ha gyűrű és A 1, A 2,..., A n,... H n=1 A n H ; iv) algebra (σ-algebra), ha gyűrű (σ-gyűrű) és Ω H. v) Az (Ω, H) párt mérhető térnek nevezzük, ha H σ-algebra. Állítások: 1. Az Ω részeinek H halmazrendszere pontosan akkor algebra illetve σ-algebra, ha (a) Ω H (b) A H A = Ω \ A H 209

210 A. FÜGGELÉK. MÉRTÉK ÉS INTEGRÁL (c) A 1, A 2 H A 1 A 2 H illetve A 1, A 2,..., A n,... H 2. Ha H gyűrű, akkor A 1, A 2,..., A n H A 1 A 2... A n, A 1 A 2... A n H. n=1 A n H. 3. Az Ω részeinek legegyszerűbb halmazai gyűrű, illetve algebra, a hatványhalmaz pedig σ-algebra. { } illetve {, Ω} 2 Ω = {A A Ω} 4. Ω részeiből álló, tetszőlegesen sok gyűrű, σ-gyűrű, algebra, σ-algebra közös része szintén gyűrű, σ-gyűrű, stb. Speciálisan az A 2 Ω halmazrendszer által generált legszűkebb σ-algebrát a továbbiakban jelöli. σ (A) = A H 2 Ω H σ-algebra H 5. Ha H félgyűrű, akkor { r } H = H i r N +, H i H i = 1, 2,... r i=1 (A.1) a legszűkebb gyűrű, amely tartalmazza H-t, és ekkor σ (H) = σ (H ). 6. Legyen Ω = R n, ekkor (a) R n korlátos (esetleg elfajult, pl. {x} x R n, ) intervallumainak I n halmaza félgyűrű, és a legszűkebb I n -t tartalmazó gyűrű H n = { I 1 I 2... I r r N +, I 1, I 2,..., I r I n }, ami még mindíg nem algebra és nem σ-gyűrű. (b) R n intervallumait tartalmazó legszűkebb σ-algebra (Borel halmazok): B n = σ (I n ) = σ (H n ). (B 1 helyett egyszerűen B-t írunk a továbbiakban.)

A.1. MÉRTÉK 211 7. Legyenek (Ω 1, A 1 ), (Ω 2, A 2 ),..., (Ω n, A n ) mérhető terek, akkor félgyűrű, és H = A 1 A 2... A n H = { A 1 A 2... A r r N +, A 1, A 2,..., A r H } (A.2) algebra. Jelölje Ω = Ω 1 Ω 2... Ω n és A = σ (H) = σ (H ), ekkor az (Ω, A) mérhető teret a fenti mérhető terek szorzatának nevezzük. Jelölése: (Ω, A) = (Ω 1, A 1 ) (Ω 2, A 2 )... (Ω n, A n ). A.2. Definíció. A µ 2 Ω R b = R {, + } halmazfüggvényt, melyre dom(µ), és µ( ) = 0, i) additívnak nevezzük, ha esetén teljesül ii) σ-additívnak nevezzük, ha A 1, A 2,... A n, A 1 A 2... A n dom(µ) A i A j = i j = 1, 2,... n A 1, A 2,... A n,... µ (A 1 A 2... A n ) = µ (A 1 ) + µ (A 2 ) +... µ (A n ) ; n=1 A n dom(µ) A i A j = i j = 1, 2,... ( ) µ A n = µ (A n ) ; n=1 n=1 iii) folytonosnak nevezzük, ha dom(µ) A 1 A 2... A n..., és lim µ(a n ) = µ(a) ; n n=1 A n = A dom(µ) (A.3) iv) elemi mértéknek nevezzük, ha dom(µ) gyűrű, µ additív, és A dom(µ) 0 µ(a) < + B 1, B 2,... dom(µ) : Ω = B n ; v) A µ 2 Ω R b halmazfüggvényt mértéknek nevezzük, ha dom(µ) σ-algebra, µ σ-additív, és A dom(µ) 0 µ(a) n=1 Kézirat, módosítva: 2006. október 24.

212 A. FÜGGELÉK. MÉRTÉK ÉS INTEGRÁL A µ mértéket végesnek nevezzük ha σ-végesnek nevezzük, ha B 1, B 2,... dom(µ) : Ω = µ(ω) < +, n=1 B n µ(b n ) < + n = 1, 2,.... vi) Ha µ mérték és A = dom(µ), az (Ω, A, µ) hármast mértéktérnek nevezzük. Állítások: 1. Ha µ elemi mérték, teljesülnek az alábbi számolási szabályok : (a) µ( ) = 0 ; (b) A, B dom(µ) µ(a B) + µ(a B) = µ(a) + µ(b) ; (c) A B dom(µ) µ(a \ B) = µ(a) µ(b) ; 2. σ-additív elemi mérték végesen additív, azaz A 1, A 2,... A n dom(µ) A i A j = i j = 1, 2,... n ( n ) n µ A i = µ (A i ). i=1 3. A µ elemi mérték pontosan akkor σ-additív, ha folytonos. 4. Ω részeinek egy H félgyűrűjén értelmezett nemnegatív és additív µ halmazfüggvény egyértelműen kiterjeszthető (A.1) szerinti H -re. Ha megadhatók B 1, B 2,... H, hogy µ(b i ) < + i = 1, 2,... és Ω = i=1 B n n=1 akkor a µ kiterjesztése elemi mérték. Ha µ folytonos, akkor a kiterjesztése is az, vagyis σ-additív. 5. R n korlátos intervallumainak I n halmazán értelmezett m n : I n R + 0 I az I intervallum hossza, területe,... halmazfüggvény folytonos és additív. Ekkor m n egyértelműen kiterjeszhető H n -re az I 1 I 2... I N m n (I 1 ) + m n (I 2 ) +... + m n (I N ) (A.4) hozzárendeléssel, ha I 1, I 2,..., I N I n és I i I j = i j. így m n σ-additív elemi mérték H n -en.

A.1. MÉRTÉK 213 6. Legyen f : R n R + 0 (Rieman-) integrálható (esetleg impropriusan) minden korlátos intervallumon, akkor m f (I) = f I I n (A.5) I halmazfüggvény folytonos és additív. Ekkor m f egyértelműen kiterjeszhető H n -re az I 1 I 2... I N m f (I 1 ) + m f (I 2 ) +... + m f (I N ) hozzárendeléssel, ha I 1, I 2,..., I N I n és I i I j = i j. így m f σ-additív elemi mérték H n -en. A.3. Tétel (Kiterjesztési tétel). Legyen H 2 Ω gyűrű, µ σ-additív elemi mérték H-n, akkor µ egyértelműen kiterjeszthető A =σ (H)-ra, azaz ha mértékterek, és akkor (Ω, A, µ 1 ) (Ω, A, µ 2 ) µ(a) = µ 1 (A) = µ 2 (A) A H (A.6) µ 1 (A) = µ 2 (A) A A. (A.7) Ekkor az egyértelmű kiterjesztést is µ-vel jelölve, (Ω, A, µ) egy σ-véges mértéktér. A.4. Megjegyzés. Az (A.6) feltétel enyhíthető a µ(a) = µ 1 (A) = µ 2 (A) A H 0 feltétellel, ha H a legszűkebb H 0 félgyűrűt tartalmazó gyűrű. A.5. Következmény. Legyenek (Ω 1, A 1, µ 1 ), (Ω 2, A 2, µ 2 ),..., (Ω n, A n, µ n ) véges mértékterek, akkor a H 0 = A 1 A 2... A n félgyűrűn definiált additív és folytonos µ (A 1 A 2... A n ) = µ 1 (A 1 ) µ 2 (A 2 )... µ n (A n ) A i A i i = 1, 2,... n halmazfüggvény egyértelműen kiterjeszthető az A = σ (H 0 ) σ-algebrára, mint az ugyancsak µ-vel jelölt un. szorzatmérték, mellyel (Ω, A, µ) egy véges illetve σ-véges mértéktér, ahol Ω = Ω 1 Ω 2... Ω n. Ezt a fenti mértékterek szorzatának nevezzük, és jelölést használjuk. (Ω, A, µ) = (Ω 1, A 1, µ 1 ) (Ω 2, A 2, µ 2 )... (Ω n, A n, µ n ) A.6. Következmény. A korábbi (A.4) kiterjesztése B n -re az un. Lebesgue mérték, mely egyben az (R, B, m) mértéktér n-tényezős szorzat mértéktere, ahol m jelöli az egydimenziós Lebesgue mértéket. A.7. Következmény. Ha m f az (A.5) szerinti halmazfüggvény I n -en, akkor m f egyértelműen meghatároz egy véges vagy σ-véges mértéket B n -en. Kézirat, módosítva: 2006. október 24.

214 A. FÜGGELÉK. MÉRTÉK ÉS INTEGRÁL A.2. Mérhető függvény A.8. Definíció. Legyen (Ω, A) mérhető tér, az f : Ω R n b függvényt Borel-mérhetőnek, vagy egyszerűen mérhetőnek nevezzük az (Ω, A) mérhető térre vonatkozóan, ha f 1 (B) A B B n. Egy h : R q R n függvényt az (R q, B q ) mérhető térre vonatkozóan nevezünk mérhetőnek. Állítások (Borel-mérhető függvények struktúrája): 1. Vektor értékű függvény pontosan akkor mérhető, ha komponensfüggvényei mérhetők. 2. Legyen (Ω, A) mérhető tér, az f : Ω R n egy fügvény és H 2 Rn, akkor σ ( f 1 (H) ) = f 1 (σ (H)), amiből következik, hogy f pontosan akkor mérhető, ha f 1 (I) A I I n. Tehát egy h : R q R q folytonos függvény mérhető. 3. Legyen (Ω, A) mérhető tér, az f : Ω R n mérhető függvények halmazát jelölje M. Ekkor M vektorháló, mely zárt a pontonkénti határértékre, azaz ha c R, f, g M, akkor c f, f + g, min {f, g}, max {f, g}, f M továbbá f n M n = 1, 2,... és lim n f n = f : Ω R n esetén f M. 4. Legyen (Ω, A) mérhető tér, az A A halmaz { 1 ha ϖ A 1 A (ϖ) = 0 ha ϖ / A indikátora mérhető, amiből következik, hogy x k R n A k A k = 1, 2,... r esetén r f = x k 1 Ak (A.8) szintén mérhető függvény. k=1 5. Legyen (Ω, A) mérhető tér, az f : Ω R n véges im(f) = {x 1, x 2,..., x r } R n értékkészletű függvény pontosan akkor mérhető, ha Ekkor az {f = x k } = f 1 ({x k }) A k = 1, 2,... r. f = r x k 1 {f=xk } k=1 mérhető függvényt egyszerűnek nevezzük.

A.3. INTEGRÁL 215 6. Legyen (Ω, A) mérhető tér, f : Ω R + 0 nemnegatív mérhető függvény, akkor megadható nemnegatív egyszerű függvények Ω-n konvergens monoton növekvő (f n ) n=1 sorozata, hogy f = lim n f n. 7. Legyen (Ω, A) mérhető tér, az f : Ω R n és h : R n R mérhető függvények, akkor h f : Ω R mérhető függvény. A.9. Megjegyzés (Generált mértéktér). Legyen (Ω, A, µ) egy mértéktér, és f : Ω R n mérhető függvény, akkor ( R n, B n, µ f ) mértéktér, ahol a µ f (B) = µ ( f 1 (B)) ) B B n. A.10. Megjegyzés (Generált mérhető tér). Legyen (Ω, A) egy mérhető tér, és f : Ω R n mérhető függvény, akkor (Ω, A f ) mérhető tér, ahol A f = f 1 (B n ) = σ ( f 1 (I n ) ) A. A.3. Integrál A.11. Definíció. Legyen (Ω, A, µ) egy mértéktér, és M a skalár értékű mérhető függvények halmaza, értelmezzük az I M R b (integrál-) függvényt a következők szerint: i) ha f M nemnegatív egyszerű függvény, legyen I(f) = x im(f) x µ ({f = x}) ; ii) ha f M nemnegatív mérhető függvény, és (f n ) n=1 egyszerű fügvények monoton növekvő sorozata, melyre lim n f n = f, akkor legyen I(f) = lim n I(f n ) ; iii) ha f M mérhető függvény, és f + = max{0; f} f = max{0; f} esetén I(f + ) és I(f ) közül legalább az egyik véges, akkor legyen I(f) = I(f + ) I(f ) ; A.12. Megjegyzés. Kézirat, módosítva: 2006. október 24.

216 A. FÜGGELÉK. MÉRTÉK ÉS INTEGRÁL 1. A fenti definícióval egyértelműen definiált az integrálnak nevezett függvény, jelőlése I(f) = fdµ = f(ϖ)dµ(ϖ), Ω Ω értelmezési tartománya pedig L Ω (µ) = dom(i), vagy egyszerűen L. 2. Ha A A, az 1 A indikátor integrálja 1 A dµ = µ(a). Ω 3. Ha E A egy mérhető halmaz, és f M egy mérhető függvény, akkor az (E, A E, µ E ) mértéktérre nézve f E egy mérhető függvény, melynek integrálját jelölje: fdµ, E ahol A E = {A E A A}, µ E (B) = µ(b) B A E. 4. Ha az I(f) integrál véges, f-et integrálhatónak nevezzük, és jelölje vagy egyszerűen L 1. L 1Ω (µ) = {f L Ω (µ) I(f) +, }, A továbbiakban mindíg az (Ω, A, µ) mértéktéren értelmezett skalár értékű mérhető függvényeket vizsgálunk, ha nem jelezzük az ettől való eltérést. Az integrál tulajdonságai: 1. Legyen f 0, akkor I(f) 0, és I(f) = 0 pontosan akkor teljesűl, ha µ(f 0) = 0. 2. Legyen f L és c R, akkor c f L és 3. Legyenek f, g L 1, akkor f + g L 1 és I(c f) = c I(f). I(f + g) = I(f) + I(g).

A.3. INTEGRÁL 217 4. Legyenek f g L 1, akkor I(f) I(g), és I(f) = I(g) pontosan akkor, ha 5. Legyen f L, akkor f L és µ(f g) = 0. I(f) I ( f ). 6. Legyenek f 1 f 2... f n... L és f 1 L 1, akkor lim n f n = f L és lim I(f n) = I(f). n 7. Legyen az (f n ) n=1 sorozat konvergens az egész Ω halmazon, és g L 1 olyan, hogy f n g, akkor lim n f n = f L 1 és lim I(f n) = I(f). n Következmény: Legyen az f : Ω R p R függvény f(, x) parciális függvénye mérhető minden x R p esetén, és az f(ω, ) parciális függvény folytonos az a R p pontban majdnem minden ω Ω esetén. Ha van egy olyan h L 1 függvény, és az a pont olyan K R p környezete, mellyel akkor f(ω, x) h(ω) ω Ω x K, lim I (f(, x)) = I (f(, a)). (A.9) x a Megjegyzés: A következmény szerint, ha az integrandusnak van (a paramétertől nem függő) integrálható majoránsa, akkor a paraméter szerinti határérték képzés és az integrálás sorrendje felcserélhető. Kiszámítási formulák: 1. A Lebesgue mérték szerinti integrál kiszámítása Riemann integrállal. Legyen a mértéktér (R n, B n, m n ), f : R n R egy mérhető függvény, és E B n. Ha az f függvény Riemann-integrálható az E halmazon, vagy f impropriusan integrálható az E-n, akkor f L 1E (m n ) és I(f) = f(x)dx. 2. Abszolut folytonos mérték szerinti integrál. E Ha a mértéktér (R n, B n, m f ) ahol m f az (A.5)-szerint meghatározott mérték, és h : R n R mérhető, akkor h L 1 (m f ) h f L 1 (m n ) és ekkor hdm f = h fdm n. R n R n Kézirat, módosítva: 2006. október 24.

218 A. FÜGGELÉK. MÉRTÉK ÉS INTEGRÁL 3. Összetett függvény integráljának kiszámítása a belső függvény által generált mértéktérben. Legyen (Ω, A, µ) egy mértéktér, f : Ω R n és h : R n R mérhető függvények, akkor h f L 1Ω (µ) h L 1R n(µ f ) és ekkor Ω h fdµ = hdµ f. R n 4. Integrál kiszámítása a szorzat mértéktérben ismételt integrálással. Legyenek (Ω 1, A 1, µ 1 ), (Ω 2, A 2, µ 2 ) véges illetve σ-véges mértékterek, f : Ω 1 Ω 2 R + 0 mérhető a szorzat mértéktérben, és jelölje µ = µ 1 µ 2 szorzatmértéket, akkor f 1 (ω) = f(ω, )dµ 2 és f 2 (ω) = f(, ω)dµ 1 Ω 2 Ω 1 mérhető függvények, és fdµ = f 1 dµ 1 = f 2 dµ 2. Ω 1 Ω 2 Ω 1 Ω 2 Négyzetesen integrálható függvények Hilbert tere: Jelölje a négyzetesen integrálható mérhető függvények halmazát akkor miníg teljesül L 2 = { f L f 2 L 1 }, f, g L 2 f g L 1, ezért bevezethetjük a következő majdnem skaláris szorzatot < f, g >= I(f g). Ez teljesíti a szokásos tulajdonságokat egyetlen kivétellel, nevezetesen teljesül. Ezért ebből csak egy < f, f >= 0 µ(f 0) = 0 f =< f, f > un. félnorma származtatható, mely pontosan akkor zérus, ha f = 0 teljesül µ-majdem mindenütt. Ha nem teszünk különbséget a µ-majdem mindenütt egyenlő függvények között, egy skaláris szorzattal ellátott lineáris teret kapunk, amely teljes.

B. Függelék Táblázatok Kolmogorov-féle K-függvény ( n P sup F n ξ (x) F (x) ) < z = K(z) x R z.00.01.02.03.04.05.06.07.08.09 0.4.003.004.005.007.010.013.016.020.025.030 0.5.036.043.050.059.068.077.088.099.110.123 0.6.136.149.163.178.193.208.224.240.256.272 0.7.289.305.322.339.356.373.390.406.423.440 0.8.456.472.488.504.519.535.550.565.579.593 0.9.607.621.634.647.660.673.685.696.708.719 1.0.730.741.751.761.770.780.789.798.806.814 1.1.822.830.837.845.851.858.864.871.877.882 1.2.888.893.898.903.908.912.916.921.925.928 1.3.932.935.939.942.945.948.951.953.956.958 1.4.960.962.965.967.968.970.972.973.975.976 1.5.978.979.980.981.983.984.985.986.986.987 1.6.988.989.989.990.991.991.992.992.993.993 1.7.994.994.995.995.995.996.996.996.996.997 1.8.997.997.997.998.998.998.998.998.998.998 1.9.999.999.999.999.999.999.999.999.999.999 219

220 B. FÜGGELÉK. TÁBLÁZATOK Normális eloszlás eloszlásfüggvénye P (ξ < x) = Φ(x) ξ N (0; 1) x.00.01.02.03.04.05.06.07.08.09.0.5000.5040.5080.5120.5160.5199.5239.5279.5319.5359.1.5398.5438.5478.5517.5557.5596.5636.5675.5714.5753.2.5793.5832.5871.5910.5948.5987.6026.6064.6103.6141.3.6179.6217.6255.6293.6331.6368.6406.6443.6480.6517.4.6554.6591.6628.6664.6700.6736.6772.6808.6844.6879.5.6915.6950.6985.7019.7054.7088.7123.7157.7190.7224.6.7257.7291.7324.7357.7389.7422.7454.7486.7517.7549.7.7580.7611.7642.7673.7704.7734.7764.7794.7823.7852.8.7881.7910.7939.7967.7995.8023.8051.8078.8106.8133.9.8159.8186.8212.8238.8264.8289.8315.8340.8365.8389 1.0.8413.8438.8461.8485.8508.8531.8554.8577.8599.8621 1.1.8643.8665.8686.8708.8729.8749.8770.8790.8810.8830 1.2.8849.8869.8888.8907.8925.8944.8962.8980.8997.9015 1.3.9032.9049.9066.9082.9099.9115.9131.9147.9162.9177 1.4.9192.9207.9222.9236.9251.9265.9279.9292.9306.9319 1.5.9332.9345.9357.9370.9382.9394.9406.9418.9429.9441 1.6.9452.9463.9474.9484.9495.9505.9515.9525.9535.9545 1.7.9554.9564.9573.9582.9591.9599.9608.9616.9625.9633 1.8.9641.9649.9656.9664.9671.9678.9686.9693.9699.9706 1.9.9713.9719.9726.9732.9738.9744.9750.9756.9761.9767 2.0.9772.9778.9783.9788.9793.9798.9803.9808.9812.9817 2.1.9821.9826.9830.9834.9838.9842.9846.9850.9854.9857 2.2.9861.9864.9868.9871.9875.9878.9881.9884.9887.9890 2.3.9893.9896.9898.9901.9904.9906.9909.9911.9913.9916 2.4.9918.9920.9922.9925.9927.9929.9931.9932.9934.9936 2.5.9938.9940.9941.9943.9945.9946.9948.9949.9951.9952 2.6.9953.9955.9956.9957.9959.9960.9961.9962.9963.9964 2.7.9965.9966.9967.9968.9969.9970.9971.9972.9973.9974 2.8.9974.9975.9976.9977.9977.9978.9979.9979.9980.9981 2.9.9981.9982.9982.9983.9984.9984.9985.9985.9986.9986 3.0.9987.9987.9987.9988.9988.9989.9989.9989.9990.9990 3.1.9990.9991.9991.9991.9992.9992.9992.9992.9993.9993 3.2.9993.9993.9994.9994.9994.9994.9994.9995.9995.9995 3.3.9995.9995.9995.9996.9996.9996.9996.9996.9996.9997 3.4.9997.9997.9997.9997.9997.9997.9997.9997.9997.9998 3.5.9998.9998.9998.9998.9998.9998.9998.9998.9998.9998 3.6.9998.9998.9999.9999.9999.9999.9999.9999.9999.9999 3.7.9999.9999.9999.9999.9999.9999.9999.9999.9999.9999 3.8.9999.9999.9999.9999.9999.9999.9999.9999.9999.9999

221 T-eloszlás kritikus értékei P ( t > t α ) = α t T n n α 0.2 0.1 0.05 0.025 0.01 0.001 1 3.078 6.314 12.706 25.452 63.657 636.621 2 1.886 2.920 4.303 6.205 9.925 31.599 3 1.638 2.353 3.182 4.177 5.841 12.924 4 1.533 2.132 2.776 3.495 4.604 8.610 5 1.476 2.015 2.571 3.163 4.032 6.869 6 1.440 1.943 2.447 2.969 3.707 5.959 7 1.415 1.895 2.365 2.841 3.499 5.408 8 1.397 1.860 2.306 2.752 3.355 5.041 9 1.383 1.833 2.262 2.685 3.250 4.781 10 1.372 1.812 2.228 2.634 3.169 4.587 11 1.363 1.796 2.201 2.593 3.106 4.437 12 1.356 1.782 2.179 2.560 3.055 4.318 13 1.350 1.771 2.160 2.533 3.012 4.221 14 1.345 1.761 2.145 2.510 2.977 4.140 15 1.341 1.753 2.131 2.490 2.947 4.073 16 1.337 1.746 2.120 2.473 2.921 4.015 17 1.333 1.740 2.110 2.458 2.898 3.965 18 1.330 1.734 2.101 2.445 2.878 3.922 19 1.328 1.729 2.093 2.433 2.861 3.883 20 1.325 1.725 2.086 2.423 2.845 3.850 25 1.316 1.708 2.060 2.385 2.787 3.725 30 1.310 1.697 2.042 2.360 2.750 3.646 35 1.306 1.690 2.030 2.342 2.724 3.591 40 1.303 1.684 2.021 2.329 2.704 3.551 50 1.299 1.676 2.009 2.311 2.678 3.496 60 1.296 1.671 2.000 2.299 2.660 3.460 70 1.294 1.667 1.994 2.291 2.648 3.435 80 1.292 1.664 1.990 2.284 2.639 3.416 90 1.291 1.662 1.987 2.280 2.632 3.402 100 1.290 1.660 1.984 2.276 2.626 3.390 1.282 1.645 1.960 2.241 2.576 3.291 Kézirat, módosítva: 2006. október 24.

222 B. FÜGGELÉK. TÁBLÁZATOK χ 2 -eloszlás kritikus értékei P ( χ 2 > χ 2 α) = α χ 2 χ 2 n n α 0.999 0.99 0.975 0.95 0.90 0.10 0.05 0.025 0.01 0.001 1.00.00.00.00.02 2.71 3.84 5.02 6.63 10.83 2.00.02.05.10.21 4.61 5.99 7.38 9.21 13.82 3.02.11.22.35.58 6.25 7.81 9.35 11.34 16.27 4.09.30.48.71 1.06 7.78 9.49 11.14 13.28 18.47 5.21.55.83 1.15 1.61 9.24 11.07 12.83 15.09 20.52 6.38.87 1.24 1.64 2.20 10.64 12.59 14.45 16.81 22.46 7.60 1.24 1.69 2.17 2.83 12.02 14.07 16.01 18.48 24.32 8.86 1.65 2.18 2.73 3.49 13.36 15.51 17.53 20.09 26.12 9 1.15 2.09 2.70 3.33 4.17 14.68 16.92 19.02 21.67 27.88 10 1.48 2.56 3.25 3.94 4.87 15.99 18.31 20.48 23.21 29.59 11 1.83 3.05 3.82 4.57 5.58 17.28 19.68 21.92 24.72 31.26 12 2.21 3.57 4.40 5.23 6.30 18.55 21.03 23.34 26.22 32.91 13 2.62 4.11 5.01 5.89 7.04 19.81 22.36 24.74 27.69 34.53 14 3.04 4.66 5.63 6.57 7.79 21.06 23.68 26.12 29.14 36.12 15 3.48 5.23 6.26 7.26 8.55 22.31 25.00 27.49 30.58 37.70 16 3.94 5.81 6.91 7.96 9.31 23.54 26.30 28.85 32.00 39.25 17 4.42 6.41 7.56 8.67 10.09 24.77 27.59 30.19 33.41 40.79 18 4.90 7.01 8.23 9.39 10.86 25.99 28.87 31.53 34.81 42.31 19 5.41 7.63 8.91 10.12 11.65 27.20 30.14 32.85 36.19 43.82 20 5.92 8.26 9.59 10.85 12.44 28.41 31.41 34.17 37.57 45.31 25 8.65 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31 52.62 30 11.59 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89 59.70 35 14.69 18.51 20.57 22.47 24.80 46.06 49.80 53.20 57.34 66.62 40 17.92 22.16 24.43 26.51 29.05 51.81 55.76 59.34 63.69 73.40 50 24.67 29.71 32.36 34.76 37.69 63.17 67.50 71.42 76.15 86.66 60 31.74 37.48 40.48 43.19 46.46 74.40 79.08 83.30 88.38 99.61 70 39.04 45.44 48.76 51.74 55.33 85.53 90.53 95.02 100.43 112.32 80 46.52 53.54 57.15 60.39 64.28 96.58 101.88 106.63 112.33 124.84 90 54.16 61.75 65.65 69.13 73.29 107.57 113.15 118.14 124.12 137.21 100 61.92 70.06 74.22 77.93 82.36 118.50 124.34 129.56 135.81 149.45

223 F-eloszlás kritikus értékei P (f > f 0.1 ) = 0.1 f F (n1 ;n 2 ) n 2 n 1 1 2 3 4 5 6 7 8 9 10 1 39.86 49.50 53.59 55.83 57.24 58.20 58.91 59.44 59.86 60.19 2 8.53 9.00 9.16 9.24 9.29 9.33 9.35 9.37 9.38 9.39 3 5.54 5.46 5.39 5.34 5.31 5.28 5.27 5.25 5.24 5.23 4 4.54 4.32 4.19 4.11 4.05 4.01 3.98 3.95 3.94 3.92 5 4.06 3.78 3.62 3.52 3.45 3.40 3.37 3.34 3.32 3.30 6 3.78 3.46 3.29 3.18 3.11 3.05 3.01 2.98 2.96 2.94 7 3.59 3.26 3.07 2.96 2.88 2.83 2.78 2.75 2.72 2.70 8 3.46 3.11 2.92 2.81 2.73 2.67 2.62 2.59 2.56 2.54 9 3.36 3.01 2.81 2.69 2.61 2.55 2.51 2.47 2.44 2.42 10 3.29 2.92 2.73 2.61 2.52 2.46 2.41 2.38 2.35 2.32 12 3.18 2.81 2.61 2.48 2.39 2.33 2.28 2.24 2.21 2.19 15 3.07 2.70 2.49 2.36 2.27 2.21 2.16 2.12 2.09 2.06 20 2.97 2.59 2.38 2.25 2.16 2.09 2.04 2.00 1.96 1.94 25 2.92 2.53 2.32 2.18 2.09 2.02 1.97 1.93 1.89 1.87 30 2.88 2.49 2.28 2.14 2.05 1.98 1.93 1.88 1.85 1.82 35 2.85 2.46 2.25 2.11 2.02 1.95 1.90 1.85 1.82 1.79 40 2.84 2.44 2.23 2.09 2.00 1.93 1.87 1.83 1.79 1.76 60 2.79 2.39 2.18 2.04 1.95 1.87 1.82 1.77 1.74 1.71 120 2.75 2.35 2.13 1.99 1.90 1.82 1.77 1.72 1.68 1.65 2.71 2.30 2.08 1.94 1.85 1.77 1.72 1.67 1.63 1.60 Kézirat, módosítva: 2006. október 24.

224 B. FÜGGELÉK. TÁBLÁZATOK F-eloszlás kritikus értékei P (f > f 0.1 ) = 0.1 f F (n1 ;n 2 ) n 2 n 1 12 15 20 25 30 35 40 60 120 1 60.71 61.22 61.74 62.05 62.26 62.42 62.53 62.79 63.06 63.33 2 9.41 9.42 9.44 9.45 9.46 9.46 9.47 9.47 9.48 9.49 3 5.22 5.20 5.18 5.17 5.17 5.16 5.16 5.15 5.14 5.13 4 3.90 3.87 3.84 3.83 3.82 3.81 3.80 3.79 3.78 3.76 5 3.27 3.24 3.21 3.19 3.17 3.16 3.16 3.14 3.12 3.11 6 2.90 2.87 2.84 2.81 2.80 2.79 2.78 2.76 2.74 2.72 7 2.67 2.63 2.59 2.57 2.56 2.54 2.54 2.51 2.49 2.47 8 2.50 2.46 2.42 2.40 2.38 2.37 2.36 2.34 2.32 2.29 9 2.38 2.34 2.30 2.27 2.25 2.24 2.23 2.21 2.18 2.16 10 2.28 2.24 2.20 2.17 2.16 2.14 2.13 2.11 2.08 2.06 12 2.15 2.10 2.06 2.03 2.01 2.00 1.99 1.96 1.93 1.90 15 2.02 1.97 1.92 1.89 1.87 1.86 1.85 1.82 1.79 1.76 20 1.89 1.84 1.79 1.76 1.74 1.72 1.71 1.68 1.64 1.61 25 1.82 1.77 1.72 1.68 1.66 1.64 1.63 1.59 1.56 1.52 30 1.77 1.72 1.67 1.63 1.61 1.59 1.57 1.54 1.50 1.46 35 1.74 1.69 1.63 1.60 1.57 1.55 1.53 1.50 1.46 1.41 40 1.71 1.66 1.61 1.57 1.54 1.52 1.51 1.47 1.42 1.38 60 1.66 1.60 1.54 1.50 1.48 1.45 1.44 1.40 1.35 1.29 120 1.60 1.55 1.48 1.44 1.41 1.39 1.37 1.32 1.26 1.19 1.55 1.49 1.42 1.38 1.34 1.32 1.30 1.24 1.17 1.00

225 F-eloszlás kritikus értékei P (f > f 0.05 ) = 0.05 f F (n1 ;n 2 ) n 2 n 1 1 2 3 4 5 6 7 8 9 10 1 161.5 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06 7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11 40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 3.84 3.00 2.61 2.37 2.21 2.10 2.01 1.94 1.88 1.83 Kézirat, módosítva: 2006. október 24.

226 B. FÜGGELÉK. TÁBLÁZATOK F-eloszlás kritikus értékei P (f > f 0.05 ) = 0.05 f F (n1 ;n 2 ) n 2 n 1 12 15 20 25 30 35 40 60 120 1 243.9 246.0 248.0 249.3 250.1 250.7 251.1 252.2 253.3 254.7 2 19.41 19.43 19.45 19.46 19.46 19.47 19.47 19.48 19.49 19.50 3 8.74 8.70 8.66 8.63 8.62 8.60 8.59 8.57 8.55 8.53 4 5.91 5.86 5.80 5.77 5.75 5.73 5.72 5.69 5.66 5.63 5 4.68 4.62 4.56 4.52 4.50 4.48 4.46 4.43 4.40 4.37 6 4.00 3.94 3.87 3.83 3.81 3.79 3.77 3.74 3.70 3.67 7 3.57 3.51 3.44 3.40 3.38 3.36 3.34 3.30 3.27 3.23 8 3.28 3.22 3.15 3.11 3.08 3.06 3.04 3.01 2.97 2.93 9 3.07 3.01 2.94 2.89 2.86 2.84 2.83 2.79 2.75 2.71 10 2.91 2.85 2.77 2.73 2.70 2.68 2.66 2.62 2.58 2.54 12 2.69 2.62 2.54 2.50 2.47 2.44 2.43 2.38 2.34 2.30 15 2.48 2.40 2.33 2.28 2.25 2.22 2.20 2.16 2.11 2.07 20 2.28 2.20 2.12 2.07 2.04 2.01 1.99 1.95 1.90 1.84 25 2.16 2.09 2.01 1.96 1.92 1.89 1.87 1.82 1.77 1.71 30 2.09 2.01 1.93 1.88 1.84 1.81 1.79 1.74 1.68 1.62 35 2.04 1.96 1.88 1.82 1.79 1.76 1.74 1.68 1.62 1.56 40 2.00 1.92 1.84 1.78 1.74 1.72 1.69 1.64 1.58 1.51 60 1.92 1.84 1.75 1.69 1.65 1.62 1.59 1.53 1.47 1.39 120 1.83 1.75 1.66 1.60 1.55 1.52 1.50 1.43 1.35 1.25 1.75 1.67 1.57 1.51 1.46 1.42 1.39 1.32 1.22 1.00

227 F-eloszlás kritikus értékei P (f > f 0.025 ) = 0.025 f F (n1 ;n 2 ) n 2 n 1 1 2 3 4 5 6 7 8 9 10 1 647.8 799.5 864.2 899.6 921.8 937.1 948.2 956.7 963.3 968.6 2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40 3 17.44 16.04 15.44 15.10 14.88 14.73 14.62 14.54 14.47 14.42 4 12.22 10.65 9.98 9.60 9.36 9.20 9.07 8.98 8.90 8.84 5 10.01 8.43 7.76 7.39 7.15 6.98 6.85 6.76 6.68 6.62 6 8.81 7.26 6.60 6.23 5.99 5.82 5.70 5.60 5.52 5.46 7 8.07 6.54 5.89 5.52 5.29 5.12 4.99 4.90 4.82 4.76 8 7.57 6.06 5.42 5.05 4.82 4.65 4.53 4.43 4.36 4.30 9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10 4.03 3.96 10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.85 3.78 3.72 12 6.55 5.10 4.47 4.12 3.89 3.73 3.61 3.51 3.44 3.37 15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20 3.12 3.06 20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91 2.84 2.77 25 5.69 4.29 3.69 3.35 3.13 2.97 2.85 2.75 2.68 2.61 30 5.57 4.18 3.59 3.25 3.03 2.87 2.75 2.65 2.57 2.51 35 5.48 4.11 3.52 3.18 2.96 2.80 2.68 2.58 2.50 2.44 40 5.42 4.05 3.46 3.13 2.90 2.74 2.62 2.53 2.45 2.39 60 5.29 3.93 3.34 3.01 2.79 2.63 2.51 2.41 2.33 2.27 120 5.15 3.80 3.23 2.89 2.67 2.52 2.39 2.30 2.22 2.16 5.02 3.69 3.12 2.79 2.57 2.41 2.29 2.19 2.11 2.05 Kézirat, módosítva: 2006. október 24.

228 B. FÜGGELÉK. TÁBLÁZATOK F-eloszlás kritikus értékei P (f > f 0.025 ) = 0.025 f F (n1 ;n 2 ) n 2 n 1 12 15 20 25 30 35 40 60 120 1 976.7 984.9 993.1 998.1 1001 1003 1006 1010 1014 1018 2 39.41 39.43 39.45 39.46 39.46 39.47 39.47 39.48 39.49 39.50 3 14.34 14.25 14.17 14.12 14.08 14.06 14.04 13.99 13.95 13.90 4 8.75 8.66 8.56 8.50 8.46 8.43 8.41 8.36 8.31 8.26 5 6.52 6.43 6.33 6.27 6.23 6.20 6.18 6.12 6.07 6.02 6 5.37 5.27 5.17 5.11 5.07 5.04 5.01 4.96 4.90 4.85 7 4.67 4.57 4.47 4.40 4.36 4.33 4.31 4.25 4.20 4.14 8 4.20 4.10 4.00 3.94 3.89 3.86 3.84 3.78 3.73 3.67 9 3.87 3.77 3.67 3.60 3.56 3.53 3.51 3.45 3.39 3.33 10 3.62 3.52 3.42 3.35 3.31 3.28 3.26 3.20 3.14 3.08 12 3.28 3.18 3.07 3.01 2.96 2.93 2.91 2.85 2.79 2.73 15 2.96 2.86 2.76 2.69 2.64 2.61 2.59 2.52 2.46 2.40 20 2.68 2.57 2.46 2.40 2.35 2.31 2.29 2.22 2.16 2.09 25 2.51 2.41 2.30 2.23 2.18 2.15 2.12 2.05 1.98 1.91 30 2.41 2.31 2.20 2.12 2.07 2.04 2.01 1.94 1.87 1.79 35 2.34 2.23 2.12 2.05 2.00 1.96 1.93 1.86 1.79 1.70 40 2.29 2.18 2.07 1.99 1.94 1.90 1.88 1.80 1.72 1.64 60 2.17 2.06 1.94 1.87 1.82 1.78 1.74 1.67 1.58 1.48 120 2.05 1.94 1.82 1.75 1.69 1.65 1.61 1.53 1.43 1.31 1.94 1.83 1.71 1.63 1.57 1.52 1.48 1.39 1.27 1.00

C. Függelék Képletek 1. Valószínűség becslése (a) Visszatevéses mintavétel p ˆp = ν n D (ˆp) = 1 n p (1 p) 1 n ˆp (1 ˆp) (b) Visszatevés nélküli mintavétel p = M N ˆp = ν n D (ˆp) = 1 ( p (1 p) 1 n 1 ) 1 ( ˆp (1 ˆp) 1 n 1 ) n N 1 n N 1 2. Várható érték és szórás becslése (a) Visszatevéses, független mintavétel m ξ = 1 n n i=1 ξ ı σ s = 1 n ( i=1 ξı n 1 ξ ) 2 D ( ξ) = σ n s n (b) Visszatevés nélküli mintavétel véges sokaságból m ξ = 1 n 1 i=1 n ξ ı σ s = n ( i=1 ξı n 1 ξ ) 2 D ( ξ) σ = n 1 n 1 N 1 s 1 n 1 n N 1 229

230 C. FÜGGELÉK. KÉPLETEK 3. Konfidencia intervallumok 4. Próbák (a) Paraméterek próbái m ξ ± t α s η ξ 1 ± t α s n n + 1 k m ξ ± u α σ0 η ξ 1 ± u α σ 0 n n + 1 k σ 2 ( s 2 n 1 ; s 2 n 1 χ 2 α χ 2 1 α 2 2 ) H 0 : σ = σ 0 χ 2 = (n 1) s 2 σ 2 0 χ 2 n 1 H 0 : σ 1 = σ 2 s 2 1 s 2 2 F (n1 1 ;n 2 1) H 0 : m = m 0 t = ξ m 0 n T s n 1 u = ξ m 0 n N (0; 1) σ H 0 : m 1 = m 2 t = ξ η S n1 n 2 T n1 +n n 1 + n 2 2 2 (n1 1)s 2 1 + (n 2 1)s 2 2 ahol σ S = n 1 + n 2 2 (b) Az u-próba erőfüggvénye ( ) n m 0 m E = 1 Φ + u α (c) Illeszkedési próbák σ 0 ( ) n m 0 m + Φ u α σ 0 H 0 : p i = p i0 r (ν i n p i0 ) 2 χ 2 r 1 i=1 n p i0 H 0 : F = F 0 P ( n supx R F n ξ (x) F 0 (x) ) < z = K(z) (d) Függetlenség vizsgálat H 0 : p ij = p i. p.j n r i=1 ( s ν ij ν i. ν.j n ν i. ν.j j=1 ) 2 χ 2 (r 1) (s 1) (e) Szórásanalízis r i=1 H A : a 1 = a 2 =... = a r = 0 f = n ı ( ξi. ξ ) 2.. r nı ( i=1 j=1 ξij ξ ) 2 n r i. r 1 F (r 1,n r) H A : σ A = 0 f = t r i=1 ( ξi. ξ ) 2.. r(t 1) ( ξij ξ ) 2 i. r 1 F (r 1,rt r) r t i=1 j=1