Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Hasonló dokumentumok
azonosságot minden 1 i, l n, 1 j k, indexre teljesítő együtthatókkal, amelyekre érvényes a = c (j) i,l l,i

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

LINEÁRIS ALGEBRA. matematika alapszak. Euklideszi terek. SZTE Bolyai Intézet, őszi félév. Euklideszi terek LINEÁRIS ALGEBRA 1 / 40

Numerikus módszerek 1.

Vektorterek. =a gyakorlatokon megoldásra ajánlott

1. Az euklideszi terek geometriája

17. előadás: Vektorok a térben

1.1. Vektorok és operátorok mátrix formában

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Principal Component Analysis

Az impulzusnyomatékok általános elmélete

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

Saj at ert ek-probl em ak febru ar 26.

Összeállította: dr. Leitold Adrien egyetemi docens

Matematika A1a Analízis

VIK A2 Matematika - BOSCH, Hatvan, 3. Gyakorlati anyag. Mátrix rangja

Készítette: Fegyverneki Sándor

Matematika (mesterképzés)

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28

1. Bázistranszformáció

1. Diagonalizálás. A Hom(V) diagonalizálható, ha van olyan bázis, amelyben A mátrixa diagonális. A diagonalizálható van sajátvektorokból álló bázis.

Bevezetés az algebrába 2 Vektor- és mátrixnorma

Lineáris algebra. =0 iє{1,,n}

Szinguláris érték felbontás Singular Value Decomposition

1. Mit jelent az, hogy egy W R n részhalmaz altér?

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

A KroneckerCapelli-tételb l következik, hogy egy Bx = 0 homogén lineáris egyenletrendszernek

Elméleti összefoglaló a Valószín ségszámítás kurzushoz

Szinguláris értékek. Wettl Ferenc április 12. Wettl Ferenc Szinguláris értékek április / 35

Lin.Alg.Zh.1 feladatok

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Összeállította: dr. Leitold Adrien egyetemi docens

1. feladatsor Komplex számok

i=1 λ iv i = 0 előállítása, melynél valamelyik λ i

Vektorok, mátrixok, lineáris egyenletrendszerek

Lineáris leképezések (előadásvázlat, szeptember 28.) Maróti Miklós, Kátai-Urbán Kamilla

Lin.Alg.Zh.1 feladatok

A maximum likelihood becslésről

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31

Wigner tétele kvantummechanikai szimmetriákról

KOVÁCS BÉLA, MATEMATIKA I.

Matematika A2 vizsga mgeoldása június 4.

II. Két speciális Fibonacci sorozat, szinguláris elemek, természetes indexelés

Sorozatok, sorok, függvények határértéke és folytonossága Leindler Schipp - Analízis I. könyve + jegyzetek, kidolgozások alapján

4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O

Bevezetés az algebrába 2

Lineáris algebra 2. Filip Ferdinánd december 7. siva.banki.hu/jegyzetek

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

1. zárthelyi,

1. Absztrakt terek 1. (x, y) x + y X és (λ, x) λx X. műveletek értelmezve vannak, és amelyekre teljesülnek a következő axiómák:

3. előadás Stabilitás

1. feladatsor: Vektorfüggvények deriválása (megoldás)

karakterisztikus egyenlet Ortogonális mátrixok. Kvadratikus alakok főtengelytranszformációja

Gazdasági matematika II. vizsgadolgozat megoldása A csoport

Lekli Henrietta. Mátrixegyenlőtlenségek

Determinánsok. A determináns fogalma olyan algebrai segédeszköz, amellyel. szolgáltat az előbbi kérdésekre, bár ez nem mindig hatékony.

Számítási módszerek a fizikában 1. (BMETE90AF35) tárgy részletes tematikája

Boros Zoltán február

1. Példa. A gamma függvény és a Fubini-tétel.

Kvadratikus alakok gyakorlás.

Diszkrét matematika II., 8. előadás. Vektorterek

Áttekintés a felhasznált lineáris algebrai ismeretekről.

10. Előadás. Megyesi László: Lineáris algebra, oldal. 10. előadás Sajátérték, Kvadaratikus alak

9. Előadás. (9. előadás) Lineáris egyr.(3.), Sajátérték április / 35

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

BIOMATEMATIKA ELŐADÁS

Testek. 16. Legyen z = 3 + 4i, w = 3 + i. Végezzük el az alábbi. a) (2 4), Z 5, b) (1, 0, 0, 1, 1) (1, 1, 1, 1, 0), Z 5 2.

Bevezetés az állapottér elméletbe: Állapottér reprezentációk

= e i1 e ik e j 1. tenzorok. A k = l = 0 speciális esetben e az R egységeleme. A. e q 1...q s. = e j 1...j l q 1...q s

LINEÁRIS MODELLBEN május. 1. Lineáris modell, legkisebb négyzetek elve

1. Lineáris transzformáció

Lineáris leképezések. 2. Lineáris-e az f : R 2 R 2 f(x, y) = (x + y, x 2 )

A gyakorlati jegy

1. Házi feladat. Határidő: I. Legyen f : R R, f(x) = x 2, valamint. d : R + 0 R+ 0

Lineáris algebra mérnököknek

Alkalmazott algebra - SVD

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Ortogonalizáció. Wettl Ferenc Wettl Ferenc Ortogonalizáció / 41

Első zárthelyi dolgozat megoldásai biomatematikából * A verzió

Mer legesség. Wettl Ferenc Wettl Ferenc Mer legesség / 40

Klasszikus algebra előadás. Waldhauser Tamás április 28.

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

Az R halmazt a valós számok halmazának nevezzük, ha teljesíti az alábbi 3 axiómacsoport axiómáit.

ismertetem, hogy milyen probléma vizsgálatában jelent meg ez az eredmény. A kérdés a következő: Mikor mondhatjuk azt, hogy bizonyos események közül

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

Centrális határeloszlás-tétel

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

1.1. Definíció. Azt mondjuk, hogy a oszója b-nek, vagy más szóval, b osztható a-val, ha létezik olyan x Z, hogy b = ax. Ennek jelölése a b.

Vektorok. Wettl Ferenc október 20. Wettl Ferenc Vektorok október / 36

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Lineáris leképezések, mátrixuk, bázistranszformáció. Képtér, magtér, dimenziótétel, rang, invertálhatóság

Az egydimenziós harmonikus oszcillátor

Lineáris algebra és a rang fogalma (el adásvázlat, szeptember 29.) Maróti Miklós

VEKTORTEREK I. VEKTORTÉR, ALTÉR, GENERÁTORRENDSZER október 15. Irodalom. További ajánlott feladatok

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.

1. A Hilbert féle axiómarendszer

Mátrixok 2017 Mátrixok

Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához

Mat. A2 3. gyakorlat 2016/17, második félév

Átírás:

Az november 23-i szeminárium témája Rövid összefoglaló Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek felfrissítése? Tekintsünk ξ 1,..., ξ k valószínűségi változókat, melyekre Eξp 2 <, 1 p k. Megjegyezzük, hogy ekkor E ξ p ξ q < minden 1 p, q k esetén, mert ekkor (E ξ p ξ q ) 2 < EξpEξ 2 q 2 < a Cauchy Schwarz egyenlőtlenség alapján. Statisztika előadáson szerepelt egy k-dimenziós véletlen vektor kovariancia mátrixának a fogalma. A (ξ 1,..., ξ k ) véletlen vektor kovariancia mátrixa az a k k mátrix, melynek p-ik sorának és q oszlopának a metszetében a Cov (ξ p, ξ q ) = E(ξ p Eξ p )(ξ q Eξ q ) = Eξ p ξ q Eξ p Eξ q elem áll. Jellemezni akarjuk a különböző véletlen vektorokhoz tartozó kovariancia mátrixokat. (A kovariancia mátrix fogalma tulajdonképpen a szórásnégyzet természetes több-dimenziós általánosítása.) Be fogjuk látni, hogy egy kovariancia mátrix szimmetrikus pozítiv definit mátrix. Továbbá igaz ennek az állításnak a megfordítása. Nevezetesen, minden k k-as szimmetrikus pozitív definit mátrixhoz létezik olyan k-dimenziós véletlen vektor, melynek ez a kovariancia mátrixa. Ez utóbbi állítás a most tárgyalandó eredmények közül a legnehezebb, viszont erre az eredményre lesz szükségünk a több-dimenziós normális eloszlások vizsgálatában. Annak érdekében, hogy a fenti kijelentések értelmét megértsük fel kell idéznünk a lineáris algebrában tanultakat. A (x 1,..., x k ) k hosszúságú sorozatokból álló sorozatok terét tekinthetjük euklideszi térnek, ha egyrészt bevezetjük a természetes (koordinátánként végzett) összeadást és (valós) számmal való szorzást, definiáljuk az (x, y) = Ennek az euklideszi térnek egy (természetes) ortogonális bázisa az e p = (0,, 0, 1, 0,, 0), 1 p k, x p y p skalárszorzatot. vektorokból álló bázis,ahol az e p vektor p-ik koordinátája 1, az összes többi koordinátája pedig nulla. Adva egy (ξ 1,..., ξ k ) k-dimenziós valószínűségi vektor, mely elemeire teljesülnek az Eξ p = 0, Eξ 2 p <, 1 p k relációk vezessük be a D(p, q) = Eξ p ξ q mennyiségeket, és definiáljuk a következő bilineáris függvényt a fenti euklideszi téren: A(x, y) = E ( x p ξ k) ( q=1 y q ξ q ) = q=1 D(p, q)x p y q, ahol x = (x 1,..., x k ), y = (y 1,..., y k ). Az A bilineáris függvény önadjungált és pozitív ( ) 2 szemidefinit, ugyanis A(x, y) = A(y, x), és A(x, x) = E x p ξ k 0. Továbbá a fent definiált bilineáris függvény szoros kapcsolatban van az (ξ 1,..., ξ k ) k-dimenziós véletlen vektor D = (D(p, q)), 1 p, q k, D(p, q) = A(e p, e q ), kovariancia mátrixával. Valóban, A(x, y) = xdy, ahol x = (x 1,..., x k ), y = (y 1,..., y k ). 1

A lineáris algebrában, ha rögzítjük egy k-dimenziós euklideszi tér egy (e 1,..., e k ) ortonormált bázisát akkor természetes kapcsolatot tudunk teremteni a bilineáris függvények, lineáris transzformációk és mátrixok között. Nevezetesen, legyen A(x, y) bilineáris függvény, és feleltessük meg neki az D = D(p, q), 1 p, q n, mátrixot, illetve az ebben a koordinátarendszerben az e mátrix által meghatározott lineáris operátort. Jegyezzük meg, hogy az ahogy az előző paragrafusban a kovariancia mátrix definicióját megadtuk egy bilineáris függvény segítségével ezt a konstrukciós módszert követi. Egy bilineáris függvény által meghatározott mátrix függ a választott ortonormált bázistól, de be lehet látni, hogy az általa meghatározott operátor nem. Ezért a fenti konstrukció kölcsönösen egyértelmű lineáris operátorok és (rögzített ortogonális bázis esetén) k k-as mátrixok között. Ezért ha bevezetjük egy bilineáris operátor adjungáltját, az önadjungált, pozitív definit önadjungált, unitér operátorok fogalmát, akkor beszélhetünk a neki megfelelő lineáris operátorok adjungáltjáról, továbbá (pozitív definit) önadjungált és unitér tulajdonságáról. (Emlékeztetőül: Ha A bilineáris függvény, akkor ennek A adjungáltját az (xa, y) = (x, ya ) azonosság minden x és y vektorra formula határozza meg. Továbbá A önadjungált, ha A = A, unitér, ha AA = A A = I. Egy A önadjungált operátor pozitív definit, ha (Ax, x) > 0 minden x 0 vektorra.) Nem magától értendő, hogy van értelme arról beszélni, hogy egy mátrix önadjungált vagy unitér. Ugyanis, különböző bilineáris függvényeknek ugyanaz a mátrix felelhet meg, ha más ortonormált bázisban írjuk fel a mátrixukat, tehát tisztázni kell azt, hogy a fenti fogalmak nem függnek attól, hogy melyik ortonormált bázisban dolgozunk. Be lehet látni, hogy van értelme mátrixok adjungáltjáról, (pozitív definit) öndjungált vagy unitér voltáról beszélni, csak ehhez kissé jobban meg kell értenünk a lineáris algebra néhány eredményét és fogalmát. Be lehet látni (nem nehéz a bizonyítás), hogy ha egy A bilineáris függvénynek egy D = D(p, q), 1 p, q k, mátrix felel meg, akkor az A adjungáltjának megfelelő D = D (p, q) mátrixra D (p, q) = D(q, p), tehát a D mátrix kiszámítható a D mátrix segítségével. A D mátrix akkor és csak akkor önadjungált, ha D = D, unitér, ha DD = D D = I, ahol a szokásos mátrix szorzást tekintjük, a D önadjungált mátrix akkor és csak akkor pozitív (szemi)definit, ha xdx 0 minden x vektorra. A fenti eredményekből látható, hogy egy (ξ 1,..., ξ k ) véletlen vektor D = (D(p, q)), 1 p, q k, kovariancia mátrixa pozitív (szemi)definit mátrix, (és ennek az állításnak van értelme.) Be akarjuk látni, hogy tetszőleges D pozitív szemidefinit mátrix előáll mint alkalmas véletlen mátrix kovarianciamátrixa. Ehhez vegyük észre, hogy ha (ξ 1,..., ξ k ) koordinátái függetlenek, (általában korrelálatlanok), Var ξ p = 1, 1 p k, akkor ennek a vektornak a kovarianciamátrixa az I identitás mátrix, továbba, ha A tetszőleges (k k-as mátrix), akkor az (η 1,..., η k ) = (ξ 1,..., ξ k )A véletlen vektor kovariancia mátrixa az A A mátrix. Valóban, ha (a p,q ), 1 p, q k, jelöli az A mátrixot, akkor ( k ) Cov (η p, η q ) = Cov a u,p ξ u, a v,q ξ v = k a u,p a u,q, mivel Cov(ξ u, ξ u ) = 1 és Cov(ξ u, ξ v ) = 0, ha u v. v=1 Ez a a u,p a u,q kifejezés viszont megegyezik az A A mátrix p-ik p-ik sorában és q-ik oszlopában álló elemmel. Ezért a kívánt állítás következik a következő (nem triviális) lineáris algebrai ered- 2

ményből. Lemma. Tetszőleges A k k-as mátrixra a D = A A mátrix k k-as szimmetrikus pozitív szemidefinit mátrix. Megfordítva, tetszőleges D k k-as pozitív szemidefinit mátrixhoz létezik olyan A k k-as mátrix, melyre D = A A. Sőt létezik olyan k k-as önadjungált pozitív szemidefinit A mátrix, melyre D = AA = A A. Megjegyzés: A D mátrix fenti előállítása nem egyértelmű, azaz a D = A A egyenlet nem határozza meg egyértelműen az A mátrixot. Valóban, ha D = A A, U unitér mátrix és Ā = UA, akkor Ā Ā = (UA) UA = A U UA = AA = D. A lemma első (kevésbé fontos) állítása egyszerűen bizonyítható. Ugyanis, (A A) = A (A ) = A A, azaz A A önadjungált mátrix, és (xa A, x) = (xa, xa ) 0, tehát D pozitív szemidefinit mátrix. A Lemma második, tartalmasabb állítása egyszerűen bizonyítható, abban a speciális esetben, ha a D mátrix diagonális, azaz a diagonálisban (λ 1,..., λ k ) elemek vannak, és a mátrix összes többi eleme zéró. Ekkor ugyanis az, hogy a D mátrix pozitív szemidefinit ekvivalens azzal, hogy λ p 0 minden 1 p k számra. Ezért definiálhatjuk azt a pozitív szemidefinit diagonális A mátrixot, melynek diagonális elemei a ( λ 1,..., ) λ k számok. Ekkor nyílvánvaló módon D = AA = A A. Az általános eset visszavezethető erre az egyszerűbb speciális esetre a lineáris algebra azon alapvető eredménye alapján, mely szerint tetszőleges önadjungált lineáris operátor diagonizálható, azaz alkalmas ortonormált bázisban az operátor mátrixa diagonális. Itt az analízis egy alapvető és nagyon természetes gondolatát alkalmazzuk. Nevezetesen azt, hogy a megoldandó problémát tekintsük olyan koordinátarendszerben, melyben az a lehető legegyszerűbb alakú. Annak érdekében, hogy ezt jobban megértsük, tárgyaljuk meg ezt a diagonalizálási módszert a Lemmában megfogalmazott eredmény bizonyításában részletesebben. Az idézett diagonalizálhatósági eredmény egyik lehetséges, leggyakrabban megfogalmazott alakja a következő: Egy k k-as A önadjungált mátrixnak létezik k darab ē 1,..., ē k sajátvektora λ 1,..., λ k sajátértékkel, azaz ē p A = λ p ē p, 1 p k. Továbbá a sajátértékek valósak és a sajátvektorok ortongonálisak. (A teljesség kedvéért jegyezzük meg, hogy abban az esetben, ha többszörös sajátértékek vannak, akkor a többszörös sajátértékekhez tartozó sajátvektorok megválasztása nem egyértelmű, és ekkor jól kell definiálni ezeket a sajátvektorokat.) Ez azt jelenti, hogy ha az önadjungált operátort ebben a koordinátarendszerben írjuk fel, akkor az diagonális, ezért a fenti diagonális mátrixokra vonatkozó érvelés elegendő a feladat bizonyításához. A fenti módszer korrekt bizonyítást ad, ha világosan kidolgozzuk azokat a részleteket, melyek lehetővé teszik, hogy mátrixok helyett a nekik megfelelő és koordinátarendszertől független bilineáris függvényekkel illetve lineáris operátorokkal dolgozhassunk. Mégis tanulságos lehet végiggondolni azt, hogy hogyan lehet ezt a módszert az eredeti koordinátarendszerben alkalmazni. Legyen ē 1,..., ē k egy D önadjungált mátrix sajátvektorokból álló ortonormált bázisa, és tekintsük az euklideszi tér eredeti e 1,..., e k ortonormált bázisát. Legyenek λ 1,..., λ k az ē 1,..., ē k sajátvektorokhoz tartozó sajátértékek, továbbá Λ az a diagonális mátrix, melynek diagonálisában a λ 1,..., λ k számok állnak. Definiáljuk az U lineáris 3

mátrixot az ē p U = e p, 1 p k, relációval. Vegyük észre, hogy U unitér operátor, és annak U adjungáltját az e p U = ē p, 1 p k, reláció definiálja. (Érdemes megérteni az unitér operátorok geometriai tartalmát. Az, hogy U unitér operátor, az geometriailag azt jelenti, hogy távolság és szögtartó leképezés, tehát forgatás és esetleg utána egy tengelyre való tükrözés alkalmazása. Be lehet látni, hogy U akkor és csak akkor unitér, ha egy rögzített ortonormált bázist egy (általában) másik ortonormált bázisba visz.) Ennek az állításnak a formális bizonyítása azon múlik, hogy (ē p U, e q ) = (ē p, e q U ) minden 1 p, q k indexre, mert az azonosság mind a két oldala nulla vagy egy, attól függően, hogy p q vagy p = q, 1 p, q k. Innen következik, hogy a definiált U leképezés valóban az U adjungáltja. Végül UU = U U = I, mert ē p UU = e p U = ē p, és hasonlóan e p U U = e p minden 1 p k indexre. Végül mutassuk meg, hogy a fenti jelölésekkel D = UΛU. Ez a reláció ekvivalens a U DU = Λ azonossággal, vagy az (e p U DU, e q ) = (e p Λ, e q ), minden 1 p, q k azonossággal. Viszont (e p U DU, e q ) = (e p U D, e q U ) = (ē p D, ē q ) = λ p (ē p, ē q ) = λ p δ p,q, ahol δ p,q = 1, ha p = q, és δ p,q = 0, ha p q. Az (e p Λ, e q ) = λ p δ p,q azonosság nyílvánvaló. A fenti azonosság lehetővé teszi a Lemma egyszerű bizonyítását. Ha D pozitív szemidefinit mátrix, akkor tekintsük annak a fenti D = UΛU előállítását. Legyen Λ az a diagonális mátrix, melynek koordinátáiban a λ p sajátértékek λ p négyzetgyökei vannak, 1 p q. Ekkor az A = U ΛU mátrixra A = A és AA = U ΛU U ΛU = UΛU = D, és ezt kellett bizonyítanunk. A fenti eredmények segítségével beláthatjuk, hogy a normális eloszlású valószínűségi változók alább megadandó három lehetséges definiciója ekvivalens. A definiciók kimondása előtt idézzük fel, hogy a korábban tárgyalt eredmények alapján független egyforma eloszlású nulla várható értékű véletlen vektorok normalizált részletösszegei egy olyan eloszlás, melynek karakterisztikus függvénye a (t 1,..., t k ) pontban a { / } l ϕ(t 1,..., t k ) = exp D(p, q)t p t q 2 q=1 függvény, ahol a D(p, q) számok a tekintett véletlen vektorok kovariancia mátrixának megfelelő elemei. A több-dimenziós normális eloszlás különböző egymással ekvivalens definiciója az ilyen karakterisztikus függvénnyel rendelkező valószínűségi vektorokat írja le, ha esetleg még egy konstans vektort adunk hozzá. Normális eloszlású valószínűségi vektorok fogalma I.: A (ξ 1,..., ξ k ) valószínűségi vektor akkor normális eloszlású, ha a normális eloszlású tetszőleges a 1,..., a k valós számokkal. a p ξ p egydimenziós valószínűségi változó Normális eloszlású valószínűségi vektorok fogalma II.: A (ξ 1,..., ξ k ) valószínűségi vektor akkor normális eloszlású, ha annak karakterisztikus függvénye { } ϕ(t 1,..., t k ) = Ee i(t 1ξ 1 + +ξ k ) = exp 1 D(p, q)t p t q + i m p t p 2 4 q=1

alakú, ahol D(p, q), 1 p, q k, pozitív szemidefinit szimmetrikus mátrix, és m p, 1 p k, tetszőleges valós számok. Ekkor D(p, q) = Cov (ξ p Eξ p )(ξ q Eξ q ), 1 p, q k, és m p = Eξ p, 1 p k. Normális eloszlású valószínűségi vektorok fogalma III.: A (ξ 1,..., ξ k ) valószínűségi vektor akkor normális eloszlású, ha létezik olyan független (η 1,..., η k ) standard normális eloszlású valószínűségi változókból álló véletlen vektor, valamint A = a(p, q), 1 p, q k, k k mátrix és (m 1,..., m k ) k-dimenziós valós számokból álló vektor, melyekre az (η 1,..., η k )A + (m 1,..., m k ) azaz a (ζ 1,..., ζ k ), ζ p = q=1 a(q, p)η q + m p, 1 p k vektor eloszlása megegyezik a (ξ 1,..., ξ k ) véletlen vektor eloszlásával. Jelölje ebben az esetben D(p, q) az A A mátrix p-ik sorának q-ik elemét. Ekkor Ekkor D(p, q) = Cov (ξ p Eξ p )(ξ q Eξ q ), és 1 p, q k, m p = Eξ p, 1 p k. Lássuk be először az alábbi definiciók ekvivalenciája közül a legnehezebbet, a Definició II. Definició III. állítást. A Definició II.-ben szereplő D(p, q) számok által meghatározott D = (D(p, q)), 1 p, q q k k-as mátrix önadjungált és pozitív szemidefinit. Ezért az ezen gyakorlaton tárgyalt lemma alapján felírható D = A A alakban. Ekkor a (ξ 1,..., ξ k ) = (η 1,..., η k )A + (m 1,..., m k ) k-dimenziós vektor, ahol (η 1,..., η k ) független standard normális eloszlású valószínűségi változók, olyan véletlen vektor, melynek a karakterisztikus függvényét a Definició II. képletben megadott képlet adja meg. Ugyanis tetszőleges t 1,..., t k valós számokra a t 1 ξ 1 + + t k ξ k valószínűségi változó normális eloszlású (emlékeztetőül: független (egydimenziós) normális eloszlású valószínűségi változók lineáris kombinációja is normális eloszlású) Var (t 1 ξ 1 + +t k ξ k ) = k t p t q Cov (ξ p ξ q ) = ta At = tdt szórásnégyzettel, ahol t = (t 1,..., t k ) és q=1 m p t p várható értékkel. Mivel egy valószínűségi vektor eloszlását meghatározza annak karakterisztikus függvénye, ez azt jelenti, hogy a fenti reprezentáció egy a harmadik definicióban szereplő valószínűségi vektorral azonos eloszlású valószínűségi vektort állít elő, azaz teljesíti a harmadik definiciót. A Definició III. Definició I. állítás bizonyítása egyszerű. Ha a (ξ 1,..., ξ k ) véletlen vektor eloszlása megegyezik egy a Definició III.-ban megadott független standard eloszlású valószínűségi változók lineáris transzformációjával (plusz egy determinisztikus vektor), akkor a (ξ 1,..., ξ k ) véletlen vektor valamilyen lineáris transzformációjának az eloszlása megegyezik független normális eloszlású valószínűségi változók (általában egy másik) lineáris transzformációjával, ezért az is normális eloszlású. A Definició I. Definició II. állítás bizonyítása is egyszerű. Ha a (ξ 1,..., ξ k ) véletlen vektor teljesíti a Definició I. állítását, akkor tetszőleges t 1 ξ 1 + + t k ξ k valószínűségi változó normális eloszlású, melynek ki tudjuk számítani a várható értékét és szórásnégyzetét. Innen látható, hogy a (ξ 1,..., ξ k ) véletlen vektor karakterisztikus függvénye olyan, mint azt a Definició II.-ben megadtuk. 5