2. Lineáris regresszió Út a lineáris regresszióhoz Regresszió kétváltozós esetben Többváltozós lineáris regresszió...

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "2. Lineáris regresszió Út a lineáris regresszióhoz Regresszió kétváltozós esetben Többváltozós lineáris regresszió..."

Átírás

1 Tartalom Tartalomjegyzék 1. Jelölési konvenciók 1 2. Lineáris regresszió Út a lineáris regresszióhoz Regresszió kétváltozós esetben Többváltozós lineáris regresszió Az OLS működése A többváltozós lineáris regressziós modell minősítése Parciális korreláció és standardizált regresszió Parciális korreláció Standardizált regresszió A cím arra utal, hogy egyelőre nem foglalkozunk annak a következményeivel, hogy az adatbázisunk csak egy nagyobb sokaságból vett minta, így a belőle számolt jellemzők nem (csak) a valóságot tükrözik, hanem ki vannak téve annak hatásának is, hogy konkrétan hogyan választottuk ki a mintát a sokaságból. Ehelyett, egyelőre úgy tekintjük, hogy a kezünkben lévő minta tökéletesen írja le a valóságot, a belőle számolt jellemzők a keresett értékek. Ez tehát azt jelenti, hogy egyelőre nem foglalkozunk a modelleink mintavételi vonatkozásaival (illetve általában a valószínűségelméleti megalapozásukkal). 1. Jelölési konvenciók Az lakásár adatbázis madártávlatból gretl-ben Ez az I. esettanulmány adatbázisa gretl-ben megnyitva. 1

2 Változók körei Az ökonometriában mindig szisztematikusan megkülönböztetjük az eredmény- és a magyarázó jellegű változókat: mi hat mire? Most mindig egy eredményváltozót (endogén vagy függő változót) feltételezünk, jele: y, és több magyarázó változót (exogén vagy független változót), jelük: x i, i = 2, 3,..., k Figyelem: az első magyarázó változó tehát a 2 alsó indexet viseli (ennek okát később látni fogjuk), így a magyarázó változók száma k 1 A valóságban gyakran nem lehet ilyen vegytisztán csoportosítani a változókat (bonyolultabban terjednek a hatások), ez vezet el a többegyenletes ökonometriához Ebben a megkülönböztetésben a kauzalitás hangsúlyos nyomon követése tükröződik, ami az ökonometriai modellek egyik fontos, sajátos jellemzője (azaz más diszciplínákban nem, vagy csak kisebb hangsúlyt kap a regressziószámítás kapcsán). A megkülönböztetés hangsúlyozását elvi szempontok diktálják, statisztikailag sok esetben nincs jelentősége a kérdésnek. Például kétváltozós regresszió esetén tökéletesen ugyanaz marad minden modelljellemző, ha az eredményés a magyarázóváltozót megcseréljük. (A konkrét paraméterek természetesen módosulnak.) Ezt a kérdést fordított regresszió néven tárgyalja az irodalom. Általában is elmondható, hogy regressziószámítás esetén mindig az oksági kapcsolatok (és a feltételezett véletlen hatások) alapján kell az eredményváltozót kijelölni (és nem például a tervezett előrejelzési irány alapján). Egy konkrét regressziós feladat vonatkozásában talán nem tűnik igazi megszorításnak, hogy csak egyetlen eredményváltozót tekintünk. (Mondván, hogy ha több változót is akarunk modellezni, akkor legfeljebb több modellt építünk. Ez azonban figyelmen kívül hagyja az így használt eredményváltozók közti esetleges kapcsolatokat.) Egy komolyabb modellezési feladatban viszont nagyon is elképzelhető, hogy több, egymástól nem függetleníthető változónk van, melyeket szeretnénk, hogy a modellünk határozzon meg. (Erre jó példa az ár és a mennyiség valamely piacon, melyek nyilvánvaló, hogy kölcsönösen hatnak egymásra.) Ennek következtében ezeket egymástól izoláltan becsülni nem lehet, olyan modellt kell építeni, mely több endogén változót tartalmaz. Szokás ezt emiatt többegyenletes modellnek is nevezni; jellemzőik alapján beszélhetünk rekurzív, szimultán, széteső stb. többegyenletes modellekről, ez azonban túlmutat jelen kurzus keretein. Mátrixalgebrai jelölési konvenciók Sok szempontból célszerű ezt az adatbázist egy mátrixként felfogni. Jelölés (Mintanagyság, mintaméret). A minta nagyságát (tehát a megfigyelési egységek számát) általában n-nel jelöljük. Ahogy a gretl-ös output is sugallta, a magyarázó változókat célszerű egy n (k 1) típusú mátrixba, az eredményváltozókat pedig egy n hosszú (oszlop)vektorba összefogni A mintanagyság jele angol szakirodalomban néha inkább T. Követjük azt a konvenciót, hogy ha pusztán vektort mondunk, az alatt mindig oszlopvektort értünk. Ha sorvektorról van szó, akkor explicite jelöljük a transzponálást. Emlékeztetünk rá, hogy vastagon szedett kisbetűvel vektort, nagybetűvel mátrixot jelölünk. Már most megjegyezzük, hogy a mintavételi vonatkozások bevezetésekor a jelölési rendszer tovább 2

3 fog bonyolódni, így ott majd külön kitérünk erre a kérdésre, és részletesen tárgyaljuk a célszerű jelölési konvenciót. A kurzus egésze során törekszünk arra, hogy következetesen alkalmazott mátrixos (vektoros) jelölésrendszerben prezentáljuk az ökonometriát. Mátrixalgebrai jelölési konvenciók: eredményváltozó Az eredményváltozó (a mi példánkkal együtt): y 1 10,7 y 2 y n 1 = [y i ] =. = 10,0. 32,5 y n Mátrixalgebrai jelölési konvenciók: magyarázó változók A magyarázóváltozók (a mi példánkkal együtt): ] [ X n (k 1) = [x i(k+1) = [x 2, x 3,..., x k ] = x 1, x 2,..., x n] T = x 12 x 13 x 1k x 22 x 23 x 2k = = x n2 x n3 x nk 116 8,6 1 Hamarosan világossá fog válni, hogy miért használtunk hullámot a változó elnevezésére. Vegyük észre, hogy a magyarázó változók mátrixának oszlopait (azaz az egyes magyarázó változókat) alsó, a sorait (azaz az egyes megfigyelési egységeket) pedig felső indexszel jelöljük. A vektorok és a mátrixok méreteit a későbbiekben már általában nem fogjuk kiírni explicite; ha így teszünk, akkor úgy értjük a méreteket, hogy a műveletek elvégzéséhez konformak legyenek. 2. Lineáris regresszió 2.1. Út a lineáris regresszióhoz A lineáris regresszió sok módon bevezethető, mi most egy meglehetősen természetes irányból fogunk közeledni: azt mutatjuk meg, hogyan juthat az ember erre a gondolatra akkor, ha adatbázisok strukturálódását igyekszik feltárni. Néhány általános gondolat elöljáróban A lineáris regresszió a legfontosabb módszerek egyike az alkalmazott statisztikában A legtipikusabb eszköze empirikus adatok kvantitatív elemzésének Majdnem minden terület (biostatisztikai, pszichometria, mérnöki tudományok stb.) használja (az ökonometrián túl) Egyelőre deskriptív megközelítés (mintavételi vonatkozások, valószínűségelméleti megalapozás később) 3

4 Elsőként pár definíciót ismétlünk meg (inkább csak a jelölésrendszer egyértelműsítése érdekében) Alapvető deskriptív mutatók: átlag Jelölés (Összegzővektor). Összegzővektornak nevezzük, és 1-gyel jelöljük azt a vektort, melynek minden eleme 1: 1 = [1, 1,..., 1] T. Definíció (Átlag). Legyen x egy változó, x i (i = 1, 2,..., n) megfigyelésekkel. Ekkor x változó átlagának (jelben: x) a következő értéket nevezzük: n x = x i n = 1 n 1T x. Alapvető deskriptív mutatók: variancia, szórás Definíció (Szórásnégyzet, variancia). Egy x változó szórásnégyzetének, más szóval varianciájának (jelben: var (x)) a következő értéket nevezzük: n var (x) = (x i x) 2. n Definíció (Szórás). Egy x változó szórásának (jelben: sd (x)) a szórásnégyzetéből (varianciájából) vont négyzetgyököt nevezzük: sd (x) = var (x). Ez itt természetesen a szórásnégyzetet sokasági definíciója. Ha mintából kívánunk varianciát becsülni, akkor van rá jobb becslőfüggvény! (Ez ugye torzított.) Néhány megjegyzés a szórásnégyzethez Definíció (Változó centrálása). Egy x változó centráltjának (jelben: x c ) az alábbi változót nevezzük: x c = x x1, azaz [x c ] i = x i x. Ezzel a szórásnégyzet felírása: n var (x) = (x i x) 2 = 1 n n (x x1)t (x x1) = 1 n xt c x c. A Steiner-tétel Állítás (Steiner-tétel). Következmény. 1 n (x i c) 2 = 1 n 1 min c n arg min c (x i x) 2 + (x c) 2 (x i c) 2 = var (x) 1 n (x i c) 2 = x. 4

5 Többváltozós adatelemzés Lépjünk tovább több dimenzióra: többváltozós adatbázisoknál kulcskérdés az adatok közötti kapcsolatok vizsgálata is Egy igen gyakran használt, praktikus eszköz a szóródási diagram (scattergram vagy scatterplot) KinArMFt Terulet A szóródási diagram két változó kapcsolatának szemléltetésére alkalmas. A szóródási diagramon minden megfigyelési egységnek egy pontot feleltetünk meg a síkban, úgy, hogy a pont egyik koordinátája az egyik, a másik a másik változó szerinti értéke a megfigyelési egységnek. Változók sztochasztikus kapcsolata I. Az előző ábra már sugallja a változók sztochasztikus kapcsolatának fogalmát Definíció (Sztochasztikus kapcsolat). Két változó sztochasztikus kapcsolatban van egymással, ha az egyik (saját) átlaga feletti értékei tendenciaszerűen a másik (saját) átlaga feletti értékeivel járnak együtt (pozitív kapcsolat) vagy fordítva, átlag feletti értékek átlag alatti értékekkel (negatív kapcsolat). Változók sztochasztikus kapcsolata II. Mit jelent az, hogy tendenciaszerűen? egyelőre fogadjuk el intuitívan, később pontosítjuk KinArMFt Terulet A sztochasztikus kapcsolat erőssége Vessük össze az előző szóródási diagramot ezzel: 5

6 KinArMFt Terasz Kvalitatíve eljutunk a kapcsolat erősségének fogalmához A kapcsolat erősségének kvantifikálása Most ezt a fogalmat fogjuk matematikai szabatossággal megragadni: Definíció (Kovariancia). Legyen x és y két változónk, a rájuk vonatkozó megfigyeléseket jelölje x i és y i (i = 1, 2,..., n). Ekkor x és y kovarianciájának a következő értéket nevezzük: [ (xi x) (y i y) ] cov (x, y) = n n = 1 n xt c y c. Érdemes az előző ábrára visszatekintve végiggondolni, hogy miért valóban a kapcsolat erősségét fogja meg! Ismét csak: ez a kovariancia sokasági definíciója. Pár hozzáfűznivaló a kovariancia fogalmához Tulajdonság. Az önkovariancia (tehát egy változó önmagával vett kovarianciája) a változó varianciája: cov (x, x) = var (x). Tulajdonság. A kovariancia abszolút nagysága legfeljebb a két változó szórásának szorzata lehet: cov (x, y) sd (x) sd (y). Mi a baj a kovarianciával? Nem tudjuk a kapcsolat szorosságát ebből az egyetlen számból megítélni (csak az irányát) a cov (KinAr, Terulet) = 712,1 most sok vagy kevés...? Ám kihasználva az előző tulajdonságot, bevezethetünk egy új mutatót (viszonyítunk, relatíve a maximális értékhez) Definíció (Lineáris korrelációs együttható). Legyen x és y két változó, ekkor a (lineáris) korrelációs együtthatójuknak a következő értéket nevezzük: corr (x, y) = cov (x, y) sd (x) sd (y) 6

7 A korreláció értelmezhetősége Tulajdonság. Tetszőleges x és y változókra 1 corr (x, y) 1. A corr (KinAr, Terulet) = 0,86 mindjárt informatívabb! (corr (KinAr, Terasz) = 0,55!) A korreláció abszolút értéke a kapcsolat erősségét jelzi, előjele pedig annak irányát Pár hozzáfűznivaló a korreláció fogalmához Definíció (Változó standardizálása). Legyen x egy változó, x i (i = 1, 2,..., n) megfigyelésekkel. Ekkor a változó standardizáltjának (jelben: x z ) az alábbi változót nevezzük: x z = x x1 sd (x) = x c sd (x), azaz [x z] i = x i x sd (x). azaz Ezzel: corr (x, y) = cov (x z, y z ), corr (x, y) = 1 n xt z y z Regresszió kétváltozós esetben A korreláció mélyebb tartalma Aránylag könnyen észrevehető, hogy a kapcsolatszorosságra ilyen módon definiált korreláció épp azt méri, hogy mennyire egy egyenes körül szóródnak az adatok Megj.: itt természetesen nem nulla meredekségű egyenest értünk Szemléletesen: KinArMFt versus Terulet (with least squares fit) 250 Y = -4,31 + 0,400X 200 KinArMFt Terulet Regressziós egyenes Az egyenes értelemszerűen a legjobban illeszkedő egyenes Kvantifikáljuk ezt: azon egyenes, amely a legjobban illeszkedik az adatainkhoz, analitikusan meghatározható Ez lesz a regressziós egyenes ez egy ökonometriai modell! (torzított lényegkiemelés!) Mire jó? mint minden ökonometriai modell, két célra alkalmazható: 7

8 Elemzés ( pl. meredekség) Előrejelzés ( kínálati ár becslése terület alapján) Torzított, hiszen az egyes pontokban általában nem pont ott húzódik az egyenes, ahol a pont van; a lényeget ragadja meg, mert alapjaiban azért visszaadja az eredményváltozó alakulását; és lényeget kiemelő jellegű, hiszen 1406 szám helyett mindössze 2 (!) számmal éri el ezt a meglehetősen jó leírását az eredményváltozó alakulásának. A regressziós egyenes leírása Ha csak két változónk van (egy eredmény és egy magyarázó!), akkor az egyenest két paraméter írja le Egy célszerű formátum (a megfigyelési egységek szintjén): ŷ i = β 1 + β 2 x 2i Jelölés. A kalap (.) becsült értékre utal (akár olyan értelemben, hogy minta alapján becsült, akár olyan értelemben, hogy modell alapján becsült az előző egyenlet mindkettőre mutat példát). Az egész adatbázisra felírva: ŷ = β β 2 x 2 A regressziószámításban (annak ellenére is, hogy a változók szerepe ebben az egyszerű kétváltozós esetben könnyen megcserélhető lenne) sokkal világosabban kifejeződik az oksági hatások feltételezett iránya, mint a teljesen szimmetrikus korrelációszámításban. Lásd még a kauzalitás kapcsán mondottakat! Az illeszkedés jellemzése Alkalmazzuk az egyenest az adatbázisunk megfigyelési egységeinek előrejelzésére Az egyes pontokban hibázhatunk: Definíció (Reziduum). Az egész adatbázisra: Más szóval: û i = y i ŷ i û = y ŷ y = ŷ + û = β β 2 x 2 + û Már itt megjegyezzük, hogy ez a fajta hiba-definíció (lévén, hogy ugyanazokkal az adatokat minősíti a modellt, amit annak becslésére is felhasznált) csak korlátozottan alkalmas a modell általánosítóképességének a jellemzésére. Az általánosítóképesség kérdésével később fogunk foglalkozni. Az a későbbiekben válik nyilvánvalóvá, hogy a reziduumot miért kalapos betűvel jelöltük. 8

9 Hagyományos legkisebb négyzetek (OLS) módszere Mit értünk legjobban illeszkedő alatt? Most ezt legkisebb négyzetes értelemben tekintjük, azaz azt nevezzük legjobban illeszkedő egyenesnek, melyre az ESS = û 2 i = u T u = ún. eltérés-négyzetösszeg minimális Miért kell a négyzetreemelés? (y i ŷ i ) 2 = (y ŷ) T (y ŷ) A reziduum jellemzi a hibát egy pontban, az ESS az egész adatbázisra vonatkoztatva Azt a becslési eljárást, mely az adatbázis alapján megkeresi az ilyen értelemben legjobban illeszkedő egyenest, hagyományos legkisebb négyzetek (OLS) módszerének nevezzük OLS kétváltozós esetben Az OLS tehát az adatbázis alapján két paramétert kell becsüljön: β 1 -t (neve: tengelymetszet, konstans, intercept) és β 2 -et (meredekség, slope) Ezeket regressziós koefficienseknek nevezzük; a sokasági ( valódi ) értékük (pl. β 1 ) neve elméleti (vagy sokasági) regressziós koefficiens, a mintából becsült értékük (pl. β 1 ) neve becsült regressziós koefficiens Az OLS tehát ezt az optimalizációs problémát oldja meg: ( β1, β ) 2 = arg min ESS = arg min (y ŷ) T (y ŷ) = b 1,b 2 b 1,b 2 = arg min b 1,b 2 [ y (b1 1 + b 2 x) ] T [ y (b1 1 + b 2 x) ] A minimum-képzés változóját (a futóváltozót) azért jelöltük b 1, b 2 -vel, hogy véletlenül se legyen összekeverhető β 1, β 2 -val, ez utóbbi ugyanis már az előbbi optimális értéke. OLS kétváltozós esetben A példánkban (kínálati ár modellezése terület alapján) az OLS a következő koefficienseket szolgáltatja: β 1 = 4,312 β 2 = 0,4002 Az OLS azt garantálja számunkra, hogy ezzel a két együtthatóval a minimális az ESS garantálja, hogy bármilyen más értékpárt választva romlana (de legalábbis nem javulna az ESS) hogy ez miért van így (és egyáltalán, hogyan oldja meg az optimalizációt), azzal az általános esetnél foglalkozunk 9

10 2.3. Többváltozós lineáris regresszió Az előzőek általánosítása Két változó kapcsolatában ez (a regressziós egyenes bevezetése) még nem bír sok gyakorlati jelentőséggel Általánosítsunk több változóra! Ezt abból kiindulva végezzük el, hogy a linearitást meg kívánjuk tartani azaz továbbra is a magyarázó változók lineáris kombinációjaként kívánjuk előállítani az eredményváltozót: ŷ = β β 2 x 2 + β 3 x β k x k. Három változó (két magyarázó változó) esetén még megpróbálkozhatunk szemléltetéssel Általában regressziónak azt a feladatot nevezzük, amikor egy { y i, x i} n minta alapján az azt (pontosabban a sokasági megfelelőjét) leíró legjobb y = f ( x i) : R k 1 R függvényt keressük (a jóság valamilyen mértéke szerint). Az itt szereplő kikötés tehát lényegében azt jelenti, hogy ezt a keresést leszűkítjük a lineáris függvények terére. E függvények viszont már egyértelműen felírhatóak egységes algebrai alakban, ahogy fent is szerepel. Háromváltozós regresszió KinArMFt Terasz Terulet Háromváltozós regresszió Itt a magyarázó változók egy adott értéke nem egy pont a számegyenesen, hanem egy pont a síkon (az ábrán a vízszintes síkon), az adott ponthoz tartozó eredményváltozót pedig függőlegesen mérjük fel 3 dimenziós pontfelhőt kapunk, ahol a regressziós egyenes helyébe regressziós sík lép Több változó esetén a regressziós sík helyett regressziós hipersíkról beszélhetünk; ez értelemszerűen már semmilyen módon nem vizualizálható. Ilyenkor általában azzal a trükkel élnek, hogy a sokdimenziós pontfelhőt levetítik minden lehetséges koordinátapárra, ilyen módon kétdimenziós 10

11 szóródási diagramok sokaságát kapják. (Például a hárdomdimenziós esetben az x y, x z és y z síkokra, azaz le-fel, jobbra-balra és szembe-hátra irányokba lehet vetíteni a pontfelhőt, ilyen módon három darab, kétdimenziós szóródási diagramot előállítva.) Ezekből az ábrákból persze még elméletileg sem rekonstruálható az eredeti pontfelhő (ahogy egy szóródási diagram sem állítható vissza két hisztogramból), de szemléltetés céljára ez a leggyakrabban alkalmazott módszer. Megjegyezzük továbbá, hogy akárhány magyarázó változónk is van, létezik egy adatsor ami mindenképp egy dimenziós: a reziduumok sorozata. Éppen ezért ennek vizsgálata (akár önmagában (azaz eloszlására), akár például kiválasztott magyarázóváltozókkal szemben) fontos szerepet játszik sok változó használata esetén. A többváltozós lineáris regresszió 3-nál több változó esetén már végképp nincs szemléletes tartalom analitikus módszer kell Továbbra is az OLS használjuk (csak algebrailag bonyolódik) A megoldást tehát az alábbi alakban keressük: ŷ = β β 2 x 2 + β 3 x β k x k. Megfigyelési egységek szintjén: ŷ i = β 1 + β 2 x i2 + β 3 x i β k x ik. Az OLS szolgáltatja tehát a β i becsült regressziós koefficienseket (megbecsli őket a minta alapján) A többváltozós lineáris regresszió A példánkban: β 1 = 7,19 β T erulet = 0,30 β T erasz = 0,35 β Szoba = 1,18. β DeliT aj = 1,40 Ismét csak: az OLS garantálja, hogy ezzel érjük el a legkisebb ESS-t, bármilyen más paraméter-választás mellett nőne (de legalábbis nem csökkenne) az ESS Többváltozós jelölési konvenciók Gondolva a ŷ = β β 2 x 2 + β 3 x β k x k 11

12 felírásra, logikus, hogy a jövőben az [ ] X n k = 1, X = [1, x 2, x 3,..., x k ] = 1 x 12 x 13 x 1k 1 x 22 x 23 x 2k = x n2 x n3 x nk mátrixot vegyük alapul Neve: design mátrix Többváltozós jelölési konvenciók Következő lépésben a regressziós koefficienseket is fogjuk össze egy (oszlop)vektorba: β = [ β1, β 2, β 3,..., β ] T k Ezzel még rövidebben írhatóak az eddigiek: ŷ = X β, és azaz û = y ŷ = y X β y = ŷ + û = X β + û, A modellünk használata: elemzés (meredekség) A paraméterek értelmezésével elemezhetjük a modellünket; kérdéseket válaszolhatunk meg a modellezett jelenségről A meredekségek egyszerű értelmezése: ha a vizsgált magyarázó változó egy egységnyivel nagyobb lenne c. p., akkor modellünk szerint várhatóan hány egységnyit változna az eredményváltozó Hiszen: Figyelem: Ceteris paribus β 1 + β 2 x i β l (x il + 1) β k x ik = = β 1 + β 2 x i β l x il + β l β k x ik = ŷ i + β l. Mindegyik változót a saját egységében mérve Abszolút változásokat kapcsol össze Később precízebben is értelmezzük a meredekséget 12

13 A lineáris specifikáció hatása Eddigi definíció a meredekségre: a többi változót rögzítjük, a vizsgált egy egységgel nagyobb... de: milyen szinten rögzítjük a többit? milyen szintről indulva nő egy egységgel a vizsgált? A linearitás fontos következménye, hogy mindkettő mindegy! Mindegy milyen szinten rögzítjük a többi változót... Mindegy milyen szintről indulva növeljük eggyel a vizsgált változót mindenképp ugyanannyi lesz a növelés hatása az eredményváltozóra! Szemléletes tartalom: gondoljunk az egyenesre (illetve síkra) Ez a megközelítés két kérdést vet fel: egyrészt, hogy vajon a valóságos jelenségeknek egyáltalán elfogadható modellje-e ez, másrészt, hogy ha valahol nem, akkor hogyan oldható fel ez a megkötés. Később mindkét kérdést részletesen is tárgyaljuk az ún. nemlineáris kiterjesztéseknél. A modellünk használata: elemzés (tengelymetszet) A konstans értelmezése: ha valamennyi magyarázó változó nulla értékű, akkor modellünk szerint várhatóan mekkora az eredményváltozó Ha a minden magyarázó változó nulla kombináció kívül esik az értelmes tartományon, akkor ennek lehet, hogy nincs tárgyi értelme (ilyenkor: egyszerűen az illeszkedést javító paraméter) A nemlineáris kiterjesztéseknél ezt a jelenséget is mélyebben meg fogjuk érteni. A modellünk használata: elemzés (rugalmasság) A meredekséghez hasonló mutatót szeretnénk, de úgy, hogy ne abszolút, hanem relatív változásokat kössön össze Tehát: ha a vizsgált magyarázó változó 1 %-nyival nagyobb lenne c. p., akkor modellünk szerint várhatóan hány %-nyit változna az eredményváltozó Számítás: El (ŷ i, x il ) = β l /ŷ i 1/x il = β l x il β 1 + β 2 x i β k x ik Figyelem: Ceteris paribus Minden elmozdulást relatíve (%-osan) mérve Ami új: az érték függ attól, hogy milyen pontban vagyunk (ezt tükrözi a jelölés is); teljesen logikus módon 13

14 A modellünk használata: előrejelzés A modellel: ŷ = X β A mintánkra: y i ŷ i = û i n ûi 2 = ESS = ,7 3. Az OLS működése Az OLS belülről Most megvizsgáljuk, hogy az OLS hogyan állítja elő a becsléseit azaz hogyan oldja meg az alábbi optimalizációs feladatot (immár általános esetre felírva): β = arg min b = arg min b = arg min b ESS = arg min b u T u = arg min u 2 = b (y Xb) T (y Xb) = arg min y Xb 2 = [ b ] y T y 2b T X T y + b T X T Xb A minimum-képzés változóját (a futóváltozót) ezúttal is azért jelöltük b-vel, hogy véletlenül se legyen összekeverhető β-val, ez utóbbi ugyanis már az előbbi optimális értéke. Lényegében egyszerű algebrai átalakításokat végzünk (és a definíciókat használjuk), hiszen a zárójeleket felbontani, műveleteket elvégezni, mátrixokkal-vektorokkal is hasonlóan kell mint valós számokkal. (A transzponálás tagonként elvégezhető, azaz (a b) T = a T b T.) Egyedül annyit kell észrevenni, hogy a y T Xb egy egyszerű valós szám, ezért megegyezik a saját transzponáltjával, b T X T y-nal. Ezért írhattunk (Xb) T y y T Xb helyett egyszerűen például 2b T X T y-t. (Itt mindenhol felhasználtuk, hogy a transzponálás megfordítja a szorzás sorrendjét: (AB) T = A T B T.) 14

15 Az OLS megoldása A szélsőérték-keresést oldjuk meg többváltozós deriválással (kvadratikus felület konvex, a stacionárius pont egyértelmű globális szélsőértékhely): [ ] y T y 2b T X T y + b T X T Xb = b = 2X T y + 2X T Xb = 0 β ( 1 = X X) T X T y, ha X T X nem szinguláris (később visszatérünk rá) Ez nem más, mintha X Moore-Penrose pszeudoinverzével szoroznánk y-t: β = X + y Itt jelentkezik igazán a mátrixos jelölésrendszer előnye. A y T y 2y T Xb+b T X T Xb lényegében egy másodfokú kifejezés többváltozós értelemben (az ax 2 + bx + c többváltozós megfelelője), és ami igazán szép: pont ahogy az ax 2 +bx+c lederiválható a változója (x) szerint (eredmény 2ax+b), ugyanúgy ez is lederiválható a változója (azaz b) szerint... és az eredmény az egyváltozóssal teljesen analóg lesz, ahogy fent is látható! Bár ezzel átléptünk egyváltozóról többváltozóra (sőt, a változók száma itt nem is ismert előre), a többváltozós analízisbeli eredmények biztosítanak róla, hogy formálisan ugyanúgy végezhető el a deriválás. (Ezt írja le röviden a vektor szerinti deriválás jelölése. Egy b vektor szerinti derivált alatt azt a vektort értjük, melyet úgy kapunk, hogy a deriválandó kifejezést lederiváljuk b egyes b i komponensei szerint (ez ugye egyszerű skalár szerinti deriválás, ami már definiált!), majd ez eredményeket összefogjuk egy vektorba. Látható tehát, hogy a vektor szerinti derivált egy ugyanolyan dimenziós vektor, mint ami szerint deriváltunk.) Azt, hogy a megtalált stacionaritási pont tényleg minimumhely, úgy ellenőrizhetjük, hogy megvizsgáljuk a Hesse-mátrixot a pontban. A mátrixos jelölésrendszerben ennek az előállítása is pofonegyszerű, mindössze még egyszer deriválni kell a függvényt a változó(vektora) szerint: ) [ ] H ( β = 2 b 2 y T y 2b T X T y + b T X T Xb = [ ] 2X T y + 2X T Xb = 2X T X. b Az ismert tétel szerint a függvénynek akkor van ) β pontban ténylegesen is (lokális, de a konvexitás miatt egyben globális) minimuma, ha H ( β pozitív definit. Ehhez tudni kell, hogy az minden további nélkül teljesül, hogy X T X pozitív szemidefinit (ez egy skalárszorzat-mátrix, más néven Gram-mátrix, amelyek mindig pozitív szemidefinitek), a kérdés tehát csak a határozott definitség. Belátható, hogy ennek feltétele, hogy X T X ne legyen szinguláris azaz itt is ugyanahhoz a feltételhez értünk! Megjegyezzük, hogy ez pontosan akkor valósul meg, ha az X teljes oszloprangú. (Erre a kérdésre a modellfeltevések tárgyalásakor még visszatérünk.) Végül egy számítástechnikai megjegyzés: az együtthatók számításánál a fenti formula direkt követése általában nem a legjobb út, különösen ha sok megfigyelési egység és/vagy változó van. Ekkor nagyméretű mátrixot kéne invertálni, amit numerikus okokból (kerekítési hibák, numerikus instabilitás stb.) általában nem szeretünk. Ehelyett, a különféle programok igyekeznek a direkt mátrixinverziót elkerülni, tipikusan az X valamilyen célszerű mátrix dekompozíciójával (QR-dekompozíció, Cholesky-dekompozíció). Pár további gondolat 15

16 Az előrejelzések a mintánkra: ( 1 ŷ = X β = X X X) T X T y Ez alapján vezessük be a mátrixot Ezzel ( ) 1 P = X X T X X T ŷ = Py Emiatt szokták hat mátrixnak is nevezni Az OLS alternatív interpretáció P projektormátrix lesz (P 2 = P, azaz idempotens) út az OLS geometriai interpretációjához Túlhatározott egyenletrendszer megoldása interpretáció Ezen a ponton szánunk pár bekezdést arra, hogy megismerkedjünk az OLS alternatív bevezetési lehetőségeivel. Természetesen végeredményben minden interpretáció ugyanazt a β = ( X T X ) 1 X T y becslést adja, ám filozófiájuk teljesen eltérő. Mi a továbbiakban is maradunk a négyzetes értelemben legjobban illeszkedő hipersík interpretációnál (amivel be is vezettük az OLS-t), így ez a rész kitekintő jellegű de a lentiek végiggondolása segítheti egy jobb, mélyebb kép kialakítását az OLS-ről. Az OLS geometriai interpretációja Mindenekelőtt emlékeztetünk rá, hogy az z 1, z 2,..., z n vektorok által kifeszített alteret azok a pontok alkotják, melyek előállnak e vektorok lineáris kombinációjaként. (E pontok mindig az eredeti vektortér (ami felett a vektorokat értelmeztük) alterét alkotják, ezért jogos az elnevezés.) Ha most vektortérnek az R n -et tekintjük, vektoroknak pedig az 1, x 2,..., x n magyarázóváltozókat (és a konstanst), azaz X oszlopvektorait, akkor az ezek által kifeszített altér ezt szokás egyébként az X mátrix oszlopterének nevezni épp azon pontokból áll, melyek előállhatnak becsült eredményváltozó(vektor)ként valamilyen regressziós koefficiensekkel! (Hiszen a becsült eredményváltozót is e vektorok lineáris kombinációjaként állítjuk elő.) Általánosságban persze nem várható, hogy a tényleges eredményváltozó(vektor) benne legyen ebben az altérben (azaz egzaktan értsd: minden egyes megfigyelési egységre megvalósulóan elő lehessen állítani lineáris kombinációként), ezt fejezi ki a reziduum. Mint a tényleges és a becsült eredményváltozó(vektor) különbségvektora, a reziduum hossza megmutatja, hogy mennyire messze van a becsült és a tényleges eredményváltozó egymástól (az R n -ben). Mi azt szeretnénk, ha ez minimális lenne. Választva a szokásos euklideszi metrikát, visszakapjuk a legkisebb négyzetes értelmezést. A kérdés már csak az, hogy adott ponthoz (tényleges eredményváltozó) hogyan határozható meg az altér (azaz: amit lineáris regresszióval elő tudunk állítani) legközelebbi pontja... de hát ez épp a geometriai vetítés művelete! A megoldás tehát az, hogy a tényleges eredményváltozót merőlegesen rávetítjük (ortogonális projekció) a magyarázóváltozók (és a konstans) által kifeszített altérre! A vetítés eredményeként kapott pont lesz a ténylegeshez legközelebbi előállítható becsült eredményváltozó, az előállításában szereplő együtthatók pedig az optimális becsült regressziós koefficiensek. Így aztán azt is megállapíthatjuk, hogy a fenti P mátrix nem más, mint ami a tényleges eredményváltozót levetíti a magyarázóváltozók (és a konstans) által kifeszített altérre. 16

17 Túlhatározott egyenletrendszer megoldása interpretáció Az ideális eset az lenne, ha találnánk olyan β vektort, mellyel X β = y előállítható lenne, azaz ha a tényleges eredményváltozókat egzaktan reprodukálni tudnánk. Ez persze általánosságban nem várható, már csak azért sem, mert a fenti lineáris egyenletrendszerben n egyenlet és csak k ismeretlen szerepel (ahol a mi feladatainkban tipikusan n k). Ezt túlhatározott egyenletrendszernek szokás nevezni. Az ilyen egyenletrendszert tehát általánosságban megoldani nem tudjuk, de logikus alternatíva, hogy akkor inkább keressük meg azt a megoldását (azaz ismeretlenek konkrét értékeit), mely mellett a tényleges jobb oldalak a legközelebb vannak a számított jobb oldalakhoz. Ha a közelséget L 2 metrikában értelmezzük, akkor épp az arg min b y Xb 2 feladathoz jutunk! Ez pedig, ahogy láttuk is, épp az OLS által is megoldott feladat. 4. A többváltozós lineáris regressziós modell minősítése Modell jóságának viszonyítási pontjai A modell minősítése az ESS alapján? kézenfekvő, de nem önmagában: viszonyítani kell! Két kézenfekvő alap: Tökéletes (v. szaturált, perfekt modell): minden mintaelemre a pontos értéket becsüli û i = 0 ESS = 0 Nullmodell: semmilyen külső (magyarázó)információt nem használ fel minden mintaelemet az átlaggal becsül Definíció (Teljes négyzetösszeg, T SS). Egy adott regressziós modell teljes négyzetösszegének nevezzük a hozzá tartozó (tehát ugyanazon eredményváltozóra vonatkozó) nullmodell hibanégyzetösszegét: T SS = ESS null = (y i y) 2. Hogyan jellemezzük modellünk jóságát? A minősítést képezzük a hol járunk az úton? elven: a tökéletesen rossz modelltől a tökéletesen jó modellig vezető út mekkora részét tettük meg Az út hossza T SS (= T SS 0), amennyit megtettünk : T SS ESS Definíció (Regressziós négyzetösszeg, RSS). Egy adott regressziós modell négyzetösszegének nevezzük a teljes négyzetösszegének és a hibanégyzetösszegének különbségét: RSS = T SS ESS. Ahogy már említettük is, sajnos néhány könyv az RSS-t más néven, hogy még rosszabb legyen a helyzet, néha ESS-ként, emlegeti. (Az itteni ESS pedig épp RSS az ottani terminológiában... ) Az új mutató bevezetése Ezzel az alkalmas modelljellemző mutató: Definíció (Többszörös determinációs együttható, R 2 ). Egy regressziós modell többszörös determinációs együtthatója (jele: R 2 y x 2,x 3...,x k, vagy ha a változók megadása nem fontos, egyszerűen R 2 ): R 2 = T SS ESS T SS = RSS T SS. 17

18 Az R 2 -ről bővebben Ha van konstans a modellben, akkor nyilván ESS < T SS, így: Tulajdonság. Minden regressziós modellre, amiben van konstans: 0 R 2 1. Az R 2 egy modell jóságának legszéleskörűbben használt mutatója Értelmezhető %-ként: a magyarázó változók ismerete mennyiben csökkentette az eredményváltozó tippelésekor a bizonytalanságunkat (ahhoz képest, mintha nem ismertünk volna egyetlen magyarázó változót sem) De vigyázat: nagyságának megítélése, változók száma stb. A belőle vont négyzetgyököt többszörös korrelációs együtthatónak szokás nevezni Az R 2 -ről bővebben Ha van konstans a modellben, akkor érvényes a következő felbontás: (y i y) 2 = (y i ŷ i ) 2 + (Négyzetek nélkül nyilvánvaló, de négyzetekkel is!) (ŷ i y) 2 Röviden tehát: T SS = ESS + RSS Összevetve az előző definícióval, kapjuk, hogy Egy megjegyzés a konstans szerepéről RSS = (ŷ i y) 2 Az előzőek is motiválják, hogy megállapítsuk: konstanst mindenképp szerepeltetünk a regresszióban, ha inszignifikáns, ha nem látszik különösebb értelme stb. akkor is! csak és kizárólag akkor hagyhatjuk el, ha az a modell tartalmából adódóan elméleti követelmény (erre látni fogunk nemsokára egy példát is, a standardizált regressziót) Ellenkező esetben (ún. konstans nélküli regresszió), a fenti felbontás nem teljesül, így a hol járunk az úton elven konstruált R 2 akár negatív is lehet! Néhány könyv, az R 2 alternatív definiálása révén, a negatív esetet kizárja. 5. Parciális korreláció és standardizált regresszió 5.1. Parciális korreláció A parciális korreláció tartalma Az eddig látott korrelációt mindig két változó között értelmezzük 18

19 Megjelennek benne a többi változón keresztül terjedő hatások Látszólagos korreláció jelensége (pl. félszobák száma és terület között) Ennek algebrai szűrésével (konkrét módszer most nem érdekes) nyerjük a parciális korrelációt Jelölése, pl. ha y és x j között számítjuk, minden más magyarázó változó hatását szűrve: corr ( y, x j.x 2, x 3,..., x j 1, x j+1,..., x k ) Olyan kontextusban, ahol ezt használjuk, a hagyományos korrelációt néha megkülönböztetésül totális korrelációnak nevezzük Standardizált regresszió A standardizált regresszió logikája Az eddig látott β i regressziós koefficiensek mértékegység-függőek mi is történik ha m 2 -ről áttérünk a cm 2 -re? Szeretnénk ettől megszabadulni: egy lehetőség, ha standardizáljuk az egész adatbázisunkat (eredményváltozót és magyarázó változókat is!) Ekkor lefuttatva a regressziót, a βi ún. standardizált regressziós koefficienseket nyerjük Érvényes a β i = β i sd (x i) sd (y) összefüggés (azaz a standardizált együtthatók megkapásához nem kell ténylegesen standardizálni az adatbázist) A standardizált regresszió értelme Ezek értelmezése: mint a szokásos regressziós együttható, de szórásnyi változásokat köt össze szórásnyi változóssal A szokásos β i koefficiensek nem alkalmasak a hozzájuk tartozó változó hatásnagyságának jellemzésére (bár intuitíve nagyon is így tűnhet: jó naggyal kell szorozni, akkó biztos nagyon hat az eredményváltozóra ) ld. a mértékegységfüggést A βi standardizált koefficiensek viszont már (persze csak mint heurisztikus mérőszámok) alkalmasak erre! Még egy érdekes összefüggés (R 2 alternatív számítása): R 2 = β i corr (y, x i ). 19

A többváltozós lineáris regresszió 1.

A többváltozós lineáris regresszió 1. 2018. szeptember 17. Lakásár adatbázis - részlet eredmény- és magyarázó jellegű változók Cél: egy eredményváltozó alakulásának jellemzése a magyarázó változók segítségével Legegyszerűbb eset - kétváltozós

Részletesebben

Ökonometriai modellek paraméterei: számítás és értelmezés

Ökonometriai modellek paraméterei: számítás és értelmezés Ökonometriai modellek paraméterei: számítás és értelmezés Írta: Werger Adrienn, Renczes Nóra, Pereszta Júlia, Vörösházi Ágota, Őzse Adrienn Javította és szerkesztette: Ferenci Tamás (tamas.ferenci@medstat.hu)

Részletesebben

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

Bevezetés az ökonometriába

Bevezetés az ökonometriába Bevezetés az ökonometriába Többváltozós lineáris regresszió: mintavételi vonatkozások és modelljellemzés Ferenci Tamás MSc 1 tamas.ferenci@medstat.hu 1 Statisztika Tanszék Budapesti Corvinus Egyetem Harmadik

Részletesebben

Korrelációs kapcsolatok elemzése

Korrelációs kapcsolatok elemzése Korrelációs kapcsolatok elemzése 1. előadás Kvantitatív statisztikai módszerek Két változó közötti kapcsolat Független: Az X ismérv szerinti hovatartozás ismerete nem ad semmilyen többletinformációt az

Részletesebben

Regressziós vizsgálatok

Regressziós vizsgálatok Regressziós vizsgálatok Regresszió (regression) Általános jelentése: visszaesés, hanyatlás, visszafelé mozgás, visszavezetés. Orvosi területen: visszafejlődés, involúció. A betegség tünetei, vagy maga

Részletesebben

Ökonometria I. Ferenci Tamás április 10.

Ökonometria I. Ferenci Tamás április 10. 1 Ökonometria I. Ferenci Tamás tamas.ferenci@medstat.hu 2018. április 10. 2 Tartalomjegyzék 1. Út az ökonometriához 5 1.1. Bevezetés, alapgondolatok................................. 5 1.1.1. A közgazdasági

Részletesebben

2013 ŐSZ. 1. Mutassa be az egymintás z-próba célját, alkalmazásának feltételeit és módszerét!

2013 ŐSZ. 1. Mutassa be az egymintás z-próba célját, alkalmazásának feltételeit és módszerét! GAZDASÁGSTATISZTIKA KIDOLGOZOTT ELMÉLETI KÉRDÉSEK A 3. ZH-HOZ 2013 ŐSZ Elméleti kérdések összegzése 1. Mutassa be az egymintás z-próba célját, alkalmazásának feltételeit és módszerét! 2. Mutassa be az

Részletesebben

Regresszió a mintában: következtetés

Regresszió a mintában: következtetés Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom Az OLS elv és használata a lineáris regresszió becslésére 1 Az OLS elv és használata a lineáris regresszió becslésére Az OLS-elv A lineáris

Részletesebben

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június GAZDASÁGSTATISZTIKA GAZDASÁGSTATISZTIKA Készült a TÁMOP-4.1.2-08/2/A/KMR-2009-0041pályázati projekt keretében Tartalomfejlesztés az ELTE TátK Közgazdaságtudományi Tanszékén az ELTE Közgazdaságtudományi

Részletesebben

Statisztika I. 12. előadás. Előadó: Dr. Ertsey Imre

Statisztika I. 12. előadás. Előadó: Dr. Ertsey Imre Statisztika I. 1. előadás Előadó: Dr. Ertsey Imre Regresszió analízis A korrelációs együttható megmutatja a kapcsolat irányát és szorosságát. A kapcsolat vizsgálata során a gyakorlatban ennél messzebb

Részletesebben

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége [GVMGS11MNC] Gazdaságstatisztika 10. előadás: 9. Regressziószámítás II. Kóczy Á. László koczy.laszlo@kgk.uni-obuda.hu Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet A standard lineáris modell

Részletesebben

5. előadás - Regressziószámítás

5. előadás - Regressziószámítás 5. előadás - Regressziószámítás 2016. október 3. 5. előadás 1 / 18 Kétváltozós eset A modell: Y i = α + βx i + u i, i = 1,..., T, ahol X i független u i -től minden i esetén, (u i ) pedig i.i.d. sorozat

Részletesebben

Bevezetés a Korreláció &

Bevezetés a Korreláció & Bevezetés a Korreláció & Regressziószámításba Petrovics Petra Doktorandusz Statisztikai kapcsolatok Asszociáció 2 minőségi/területi ismérv között Vegyes kapcsolat minőségi/területi és egy mennyiségi ismérv

Részletesebben

Lineáris regressziószámítás 1. - kétváltozós eset

Lineáris regressziószámítás 1. - kétváltozós eset Lineáris regressziószámítás 1. - kétváltozós eset Orlovits Zsanett 2019. február 6. Adatbázis - részlet eredmény- és magyarázó jellegű változók Cél: egy eredményváltozó alakulásának jellemzése a magyarázó

Részletesebben

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió SZDT-08 p. 1/31 Biometria az orvosi gyakorlatban Korrelációszámítás, regresszió Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Korrelációszámítás

Részletesebben

12. előadás. Egyenletrendszerek, mátrixok. Dr. Szörényi Miklós, Dr. Kallós Gábor

12. előadás. Egyenletrendszerek, mátrixok. Dr. Szörényi Miklós, Dr. Kallós Gábor 12. előadás Egyenletrendszerek, mátrixok Dr. Szörényi Miklós, Dr. Kallós Gábor 2015 2016 1 Tartalom Matematikai alapok Vektorok és mátrixok megadása Tömbkonstansok Lineáris műveletek Mátrixok szorzása

Részletesebben

Korreláció és lineáris regresszió

Korreláció és lineáris regresszió Korreláció és lineáris regresszió Két folytonos változó közötti összefüggés vizsgálata Szűcs Mónika SZTE ÁOK-TTIK Orvosi Fizikai és Orvosi Informatikai Intézet Orvosi Fizika és Statisztika I. előadás 2016.11.02.

Részletesebben

Nemlineáris modellek

Nemlineáris modellek Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre

Részletesebben

Regresszió számítás az SPSSben

Regresszió számítás az SPSSben Regresszió számítás az SPSSben Kvantitatív statisztikai módszerek Petrovics Petra Lineáris regressziós modell X és Y közötti kapcsolatot ábrázoló egyenes. Az Y függ: x 1, x 2,, x p p db magyarázó változótól

Részletesebben

Többváltozós, valós értékű függvények

Többváltozós, valós értékű függvények TÖ Többváltozós, valós értékű függvények TÖ Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza, n változós függvényeknek nevezzük. TÖ Példák:.

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Normák, kondíciószám

Normák, kondíciószám Normák, kondíciószám A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris egyenletrendszerek Nagyon sok probléma közvetlenül lineáris egyenletrendszer megoldásával kezelhetı Sok numerikus

Részletesebben

II. Két speciális Fibonacci sorozat, szinguláris elemek, természetes indexelés

II. Két speciális Fibonacci sorozat, szinguláris elemek, természetes indexelés II. Két speciális Fibonacci sorozat, szinguláris elemek, természetes indexelés Nagyon könnyen megfigyelhetjük, hogy akármilyen két számmal elindítunk egy Fibonacci sorozatot, a sorozat egymást követő tagjainak

Részletesebben

Matematikai alapok és valószínőségszámítás. Középértékek és szóródási mutatók

Matematikai alapok és valószínőségszámítás. Középértékek és szóródási mutatók Matematikai alapok és valószínőségszámítás Középértékek és szóródási mutatók Középértékek A leíró statisztikák talán leggyakrabban használt csoportját a középértékek jelentik. Legkönnyebben mint az adathalmaz

Részletesebben

Gauss-eliminációval, Cholesky felbontás, QR felbontás

Gauss-eliminációval, Cholesky felbontás, QR felbontás Közelítő és szimbolikus számítások 4. gyakorlat Mátrix invertálás Gauss-eliminációval, Cholesky felbontás, QR felbontás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei

Részletesebben

Matematikai geodéziai számítások 5.

Matematikai geodéziai számítások 5. Matematikai geodéziai számítások 5 Hibaterjedési feladatok Dr Bácsatyai László Matematikai geodéziai számítások 5: Hibaterjedési feladatok Dr Bácsatyai László Lektor: Dr Benedek Judit Ez a modul a TÁMOP

Részletesebben

A szimplex algoritmus

A szimplex algoritmus A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás

Részletesebben

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Vektorterek. =a gyakorlatokon megoldásra ajánlott Vektorterek =a gyakorlatokon megoldásra ajánlott 40. Alteret alkotnak-e a valós R 5 vektortérben a megadott részhalmazok? Ha igen, akkor hány dimenziósak? (a) L = { (x 1, x 2, x 3, x 4, x 5 ) x 1 = x 5,

Részletesebben

Matematikai geodéziai számítások 6.

Matematikai geodéziai számítások 6. Matematikai geodéziai számítások 6. Lineáris regresszió számítás elektronikus távmérőkre Dr. Bácsatyai, László Matematikai geodéziai számítások 6.: Lineáris regresszió számítás elektronikus távmérőkre

Részletesebben

Statisztika I. 11. előadás. Előadó: Dr. Ertsey Imre

Statisztika I. 11. előadás. Előadó: Dr. Ertsey Imre Statisztika I. 11. előadás Előadó: Dr. Ertsey Imre Összefüggés vizsgálatok A társadalmi gazdasági élet jelenségei kölcsönhatásban állnak, összefüggnek egymással. Statisztika alapvető feladata: - tényszerűségek

Részletesebben

Matematika. 4. konzultáció: Kétváltozós függvények szélsőértéke. Parciális függvény, parciális derivált

Matematika. 4. konzultáció: Kétváltozós függvények szélsőértéke. Parciális függvény, parciális derivált Matematika 1 NYME KTK, Egyetemi kiegészítő alapképzés 2004/2005. tanév, I. évf. I.félév Budapest Előadó: Dr. Takách Géza NyME FMK Informatikai Intézet 9400 Sopron, Bajcsy Zs. u. 9. GT fszt. 3. (99) 518

Részletesebben

A leíró statisztikák

A leíró statisztikák A leíró statisztikák A leíró statisztikák fogalma, haszna Gyakori igény az, hogy egy adathalmazt elemei egyenkénti felsorolása helyett néhány jellemző tulajdonságának megadásával jellemezzünk. Ezeket az

Részletesebben

Matematikai geodéziai számítások 6.

Matematikai geodéziai számítások 6. Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr. Bácsatyai László Matematikai geodéziai számítások 6. MGS6 modul Lineáris regresszió számítás elektronikus távmérőkre SZÉKESFEHÉRVÁR 2010 Jelen szellemi

Részletesebben

Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió

Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió 1. A fizetés (Y, órabér dollárban) és iskolázottság (X, elvégzett iskolai év) közti kapcsolatot vizsgáljuk az Y t α + β X 2 t +

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Determinánsok. A determináns fogalma olyan algebrai segédeszköz, amellyel. szolgáltat az előbbi kérdésekre, bár ez nem mindig hatékony.

Determinánsok. A determináns fogalma olyan algebrai segédeszköz, amellyel. szolgáltat az előbbi kérdésekre, bár ez nem mindig hatékony. Determinánsok A determináns fogalma olyan algebrai segédeszköz, amellyel jól jellemezhető a mátrixok invertálhatósága, a mátrix rangja. Segítségével lineáris egyenletrendszerek megoldhatósága dönthető

Részletesebben

Statisztika elméleti összefoglaló

Statisztika elméleti összefoglaló 1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak 1. Generátorrendszer Generátorrendszer. Tétel (Freud, 4.3.4. Tétel) Legyen V vektortér a T test fölött és v 1,v 2,...,v m V. Ekkor a λ 1 v 1 + λ 2 v 2 +... + λ m v m alakú vektorok, ahol λ 1,λ 2,...,λ

Részletesebben

III. Kvantitatív változók kapcsolata (korreláció, regresszió)

III. Kvantitatív változók kapcsolata (korreláció, regresszió) III. Kvantitatív változók kapcsolata (korreláció, regresszió) Tartalom Változók kapcsolata Kétdimenziós minta (pontdiagram) Regressziós előrejelzés (predikció) Korreláció Tanuló Kétdimenziós minta Tanulással

Részletesebben

[Biomatematika 2] Orvosi biometria

[Biomatematika 2] Orvosi biometria [Biomatematika 2] Orvosi biometria Bódis Emőke 2016. 04. 25. J J 9 Korrelációanalízis Regresszióanalízis: hogyan változik egy vizsgált változó értéke egy másik változó változásának függvényében. Korrelációs

Részletesebben

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:

Részletesebben

Többváltozós, valós értékű függvények

Többváltozós, valós értékű függvények Többváltozós függvények Többváltozós, valós értékű függvények Többváltozós függvények Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza,

Részletesebben

Vektorok, mátrixok, lineáris egyenletrendszerek

Vektorok, mátrixok, lineáris egyenletrendszerek a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.

Részletesebben

Line aris f uggv enyilleszt es m arcius 19.

Line aris f uggv enyilleszt es m arcius 19. Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés

Részletesebben

y ij = µ + α i + e ij

y ij = µ + α i + e ij Elmélet STATISZTIKA 3. Előadás Variancia-analízis Lineáris modellek A magyarázat a függő változó teljes heterogenitásának két részre bontását jelenti. A teljes heterogenitás egyik része az, amelynek okai

Részletesebben

Többváltozós lineáris regressziós modell feltételeinek tesztelése I.

Többváltozós lineáris regressziós modell feltételeinek tesztelése I. Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Kvantitatív statisztikai módszerek Petrovics Petra Többváltozós lineáris regressziós

Részletesebben

Bevezetés az ökonometriába

Bevezetés az ökonometriába Bevezetés az ökonometriába Többváltozós regresszió: nemlineáris modellek Ferenci Tamás MSc 1 tamas.ferenci@medstat.hu 1 Statisztika Tanszék Budapesti Corvinus Egyetem Hetedik előadás, 2010. november 10.

Részletesebben

Matematikai statisztikai elemzések 6.

Matematikai statisztikai elemzések 6. Nyugat-magyarországi Egyetem Geoinformatikai Kara Prof. Dr. Závoti József Matematikai statisztikai elemzések 6. MSTE6 modul Regressziószámítás: kétváltozós lineáris és nemlineáris regresszió, többváltozós

Részletesebben

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek Az november 23-i szeminárium témája Rövid összefoglaló Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek felfrissítése? Tekintsünk ξ 1,..., ξ k valószínűségi változókat,

Részletesebben

Matematikai geodéziai számítások 5.

Matematikai geodéziai számítások 5. Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr Bácsatyai László Matematikai geodéziai számítások 5 MGS5 modul Hibaterjedési feladatok SZÉKESFEHÉRVÁR 2010 Jelen szellemi terméket a szerzői jogról

Részletesebben

Többváltozós lineáris regressziós modell feltételeinek

Többváltozós lineáris regressziós modell feltételeinek Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Petrovics Petra Doktorandusz Többváltozós lineáris regressziós modell x 1, x 2,, x p

Részletesebben

4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis

4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis 1. feladat Regresszióanalízis. Legkisebb négyzetek elve 2. feladat Az iskola egy évfolyamába tartozó diákok átlagéletkora 15,8 év, standard deviációja 0,6 év. A 625 fős évfolyamból hány diák fiatalabb

Részletesebben

GVMST22GNC Statisztika II.

GVMST22GNC Statisztika II. GVMST22GNC Statisztika II. 4. előadás: 9. Kétváltozós korreláció- és regressziószámítás Kóczy Á. László koczy.laszlo@kgk.uni-obuda.hu Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet Korrelációszámítás

Részletesebben

10. Előadás. Megyesi László: Lineáris algebra, oldal. 10. előadás Sajátérték, Kvadaratikus alak

10. Előadás. Megyesi László: Lineáris algebra, oldal. 10. előadás Sajátérték, Kvadaratikus alak 10. Előadás Megyesi László: Lineáris algebra, 98. 108. oldal. Gondolkodnivalók Mátrix inverze 1. Gondolkodnivaló Igazoljuk, hogy invertálható trianguláris mátrixok inverze is trianguláris. Bizonyítás:

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Többváltozós Regresszió-számítás

Többváltozós Regresszió-számítás Töváltozós Regresszió-számítás 3. előadás Döntéselőkészítés módszertana Dr. Szilágyi Roland Korreláció Célja a kacsolat szorosságának mérése. Regresszió Célja a kacsolatan megfigyelhető törvényszerűség

Részletesebben

Ökonometria. Logisztikus regresszió. Ferenci Tamás 1 Nyolcadik fejezet. Budapesti Corvinus Egyetem. 1 Statisztika Tanszék

Ökonometria. Logisztikus regresszió. Ferenci Tamás 1 Nyolcadik fejezet. Budapesti Corvinus Egyetem. 1 Statisztika Tanszék Ferenci Tamás 1 tamas.ferenci@medstat.hu 1 Statisztika Tanszék Budapesti Corvinus Egyetem Nyolcadik fejezet Tartalom V. esettanulmány 1 V. esettanulmány Csődelőrejelzés 2 Általános gondolatok 3 becslése

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

17. előadás: Vektorok a térben

17. előadás: Vektorok a térben 17. előadás: Vektorok a térben Szabó Szilárd A vektor fogalma A mai előadásban n 1 tetszőleges egész szám lehet, de az egyszerűség kedvéért a képletek az n = 2 esetben szerepelnek. Vektorok: rendezett

Részletesebben

Legkisebb négyzetek módszere, Spline interpoláció

Legkisebb négyzetek módszere, Spline interpoláció Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján

Részletesebben

Bevezetés az ökonometriába

Bevezetés az ökonometriába Bevezetés az ökonometriába Többváltozós lineáris regresszió: modellspecifikáció, interakció Ferenci Tamás MSc 1 tamas.ferenci@medstat.hu 1 Statisztika Tanszék Budapesti Corvinus Egyetem Ötödik előadás,

Részletesebben

Többváltozós lineáris regresszió 3.

Többváltozós lineáris regresszió 3. Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,

Részletesebben

Problémás regressziók

Problémás regressziók Universitas Eotvos Nominata 74 203-4 - II Problémás regressziók A közönséges (OLS) és a súlyozott (WLS) legkisebb négyzetes lineáris regresszió egy p- változós lineáris egyenletrendszer megoldása. Az egyenletrendszer

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,

Részletesebben

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011. BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011. 1 Mérési hibák súlya és szerepe a mérési eredményben A mérési hibák csoportosítása A hiba rendűsége Mérési bizonytalanság Standard és kiterjesztett

Részletesebben

Diagnosztika és előrejelzés

Diagnosztika és előrejelzés 2018. november 28. A diagnosztika feladata A modelldiagnosztika alapfeladatai: A modellillesztés jóságának vizsgálata (idősoros adatok esetén, a regressziónál már tanultuk), a reziduumok fehérzaj voltának

Részletesebben

A legjobb közeĺıtés itt most azt jelentette, hogy a lineáris

A legjobb közeĺıtés itt most azt jelentette, hogy a lineáris Többváltozós függvények differenciálhatósága f(x) f(x Az egyváltozós függvények differenciálhatóságát a lim 0 ) x x0 x x 0 függvényhatárértékkel definiáltuk, s szemléletes jelentése abban mutatkozott meg,

Részletesebben

Tartalomjegyzék I. RÉSZ: KÍSÉRLETEK MEGTERVEZÉSE

Tartalomjegyzék I. RÉSZ: KÍSÉRLETEK MEGTERVEZÉSE Tartalomjegyzék 5 Tartalomjegyzék Előszó I. RÉSZ: KÍSÉRLETEK MEGTERVEZÉSE 1. fejezet: Kontrollált kísérletek 21 1. A Salk-oltás kipróbálása 21 2. A porta-cava sönt 25 3. Történeti kontrollok 27 4. Összefoglalás

Részletesebben

Kétváltozós függvények differenciálszámítása

Kétváltozós függvények differenciálszámítása Kétváltozós függvények differenciálszámítása 13. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék Kétváltozós függvények p. 1/1 Definíció, szemléltetés Definíció. Az f : R R R függvényt

Részletesebben

Ökonometria. Dummy változók használata. Ferenci Tamás 1 tamas.ferenci@medstat.hu. Hetedik fejezet. Budapesti Corvinus Egyetem. 1 Statisztika Tanszék

Ökonometria. Dummy változók használata. Ferenci Tamás 1 tamas.ferenci@medstat.hu. Hetedik fejezet. Budapesti Corvinus Egyetem. 1 Statisztika Tanszék Dummy változók használata Ferenci Tamás 1 tamas.ferenci@medstat.hu 1 Statisztika Tanszék Budapesti Corvinus Egyetem Hetedik fejezet Tartalom IV. esettanulmány 1 IV. esettanulmány Uniós országok munkanélkülisége

Részletesebben

First Prev Next Last Go Back Full Screen Close Quit

First Prev Next Last Go Back Full Screen Close Quit Többváltozós függvények (2) First Prev Next Last Go Back Full Screen Close Quit 1. Egyváltozós függvények esetén a differenciálhatóságból következett a folytonosság. Fontos tudni, hogy abból, hogy egy

Részletesebben

Mérési hibák 2006.10.04. 1

Mérési hibák 2006.10.04. 1 Mérési hibák 2006.10.04. 1 Mérés jel- és rendszerelméleti modellje Mérési hibák_labor/2 Mérési hibák mérési hiba: a meghatározandó értékre a mérés során kapott eredmény és ideális értéke közötti különbség

Részletesebben

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27 Vektorterek Wettl Ferenc 2015. február 17. Wettl Ferenc Vektorterek 2015. február 17. 1 / 27 Tartalom 1 Egyenletrendszerek 2 Algebrai struktúrák 3 Vektortér 4 Bázis, dimenzió 5 Valós mátrixok és egyenletrendszerek

Részletesebben

Gauss elimináció, LU felbontás

Gauss elimináció, LU felbontás Közelítő és szimbolikus számítások 3. gyakorlat Gauss elimináció, LU felbontás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 EGYENLETRENDSZEREK 1. Egyenletrendszerek

Részletesebben

Összeállította: dr. Leitold Adrien egyetemi docens

Összeállította: dr. Leitold Adrien egyetemi docens Az R n vektortér Összeállította: dr. Leitold Adrien egyetemi docens 2008.09.08. R n vektortér/1 Vektorok Rendezett szám n-esek: a = (a 1, a 2,, a n ) sorvektor a1 a = a2 oszlopvektor... a n a 1, a 2,,

Részletesebben

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján Közelítő és szimbolikus számítások 6. gyakorlat Sajátérték, Gersgorin körök Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján . Mátrixok sajátértékei

Részletesebben

15. LINEÁRIS EGYENLETRENDSZEREK

15. LINEÁRIS EGYENLETRENDSZEREK 15 LINEÁRIS EGYENLETRENDSZEREK 151 Lineáris egyenletrendszer, Gauss elimináció 1 Definíció Lineáris egyenletrendszernek nevezzük az (1) a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a

Részletesebben

Mátrixok, mátrixműveletek

Mátrixok, mátrixműveletek Mátrixok, mátrixműveletek 1 előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék Mátrixok, mátrixműveletek p 1/1 Mátrixok definíciója Definíció Helyezzünk el n m elemet egy olyan téglalap

Részletesebben

Gauss-Seidel iteráció

Gauss-Seidel iteráció Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS

Részletesebben

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4 Numerikus módszerek II. zárthelyi dolgozat, megoldások, 204/5. I. félév, A. csoport. Feladat. (6p) Alkalmas módon választva egy Givens-forgatást, határozzuk meg az A mátrix QR-felbontását! Oldjuk meg ennek

Részletesebben

y ij = µ + α i + e ij STATISZTIKA Sir Ronald Aylmer Fisher Példa Elmélet A variancia-analízis alkalmazásának feltételei Lineáris modell

y ij = µ + α i + e ij STATISZTIKA Sir Ronald Aylmer Fisher Példa Elmélet A variancia-analízis alkalmazásának feltételei Lineáris modell Példa STATISZTIKA Egy gazdálkodó k kukorica hibrid termesztése között választhat. Jelöljük a fajtákat A, B, C, D-vel. Döntsük el, hogy a hibridek termesztése esetén azonos terméseredményre számíthatunk-e.

Részletesebben

A mérések általános és alapvető metrológiai fogalmai és definíciói. Mérések, mérési eredmények, mérési bizonytalanság. mérés. mérési elv

A mérések általános és alapvető metrológiai fogalmai és definíciói. Mérések, mérési eredmények, mérési bizonytalanság. mérés. mérési elv Mérések, mérési eredmények, mérési bizonytalanság A mérések általános és alapvető metrológiai fogalmai és definíciói mérés Műveletek összessége, amelyek célja egy mennyiség értékének meghatározása. mérési

Részletesebben

Matematika szigorlat június 17. Neptun kód:

Matematika szigorlat június 17. Neptun kód: Név Matematika szigorlat 014. június 17. Neptun kód: 1.. 3. 4. 5. Elm. Fel. Össz. Oszt. Az eredményes szigorlat feltétele elméletből legalább 0 pont, feladatokból pedig legalább 30 pont elérése. A szigorlat

Részletesebben

c adatpontok és az ismeretlen pont közötti kovariancia vektora

c adatpontok és az ismeretlen pont közötti kovariancia vektora 1. MELLÉKLET: Alkalmazott jelölések A mintaterület kiterjedése, területe c adatpontok és az ismeretlen pont közötti kovariancia vektora C(0) reziduális komponens varianciája C R (h) C R Cov{} d( u, X )

Részletesebben

Matematika (mesterképzés)

Matematika (mesterképzés) Matematika (mesterképzés) Környezet- és Településmérnököknek Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Vinczéné Varga A. Környezet- és Településmérnököknek 2016/2017/I 1 / 29 Lineáris tér,

Részletesebben

Fogalom STATISZTIKA. Alkalmazhatósági feltételek. A standard lineáris modell. Projekciós mátrix, P

Fogalom STATISZTIKA. Alkalmazhatósági feltételek. A standard lineáris modell. Projekciós mátrix, P Fogalom STATISZTIKA 8 Előadás Többszörös lineáris regresszió Egy jelenség vizsgálata során általában az adott jelenséget több tényező befolyásolja, vagyis többnyire nem elegendő a kétváltozós modell elemzése

Részletesebben

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének 6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 4 IV. MINTA, ALAPsTATIsZTIKÁK 1. MATEMATIKAI statisztika A matematikai statisztika alapfeladatát nagy általánosságban a következőképpen

Részletesebben

STATISZTIKA. Fogalom. A standard lineáris regressziós modell mátrixalgebrai jelölése. A standard lineáris modell. Eredménytáblázat

STATISZTIKA. Fogalom. A standard lineáris regressziós modell mátrixalgebrai jelölése. A standard lineáris modell. Eredménytáblázat Fogalom STATISZTIKA 8 Előadás Többszörös lineáris regresszió Egy jelenség vizsgálata során általában az adott jelenséget több tényező befolyásolja, vagyis többnyire nem elegendő a kétváltozós modell elemzése

Részletesebben

A többváltozós lineáris regresszió III. Főkomponens-analízis

A többváltozós lineáris regresszió III. Főkomponens-analízis A többváltozós lineáris regresszió III. 6-7. előadás Nominális változók a lineáris modellben 2017. október 10-17. 6-7. előadás A többváltozós lineáris regresszió III., Alapok Többváltozós lineáris regresszió

Részletesebben

Függvények Megoldások

Függvények Megoldások Függvények Megoldások ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x x b) x x + c) x ( x + ) b) Az x függvény

Részletesebben

Első zárthelyi dolgozat megoldásai biomatematikából * A verzió

Első zárthelyi dolgozat megoldásai biomatematikából * A verzió Első zárthelyi dolgozat megoldásai biomatematikából * A verzió Elméleti kérdések: E. Mikor nevezünk egy gráfot gyengén és mikor erősen összefüggőnek? Adjon példát gyengén összefüggő de erősen nem összefüggő

Részletesebben

Adatok statisztikai értékelésének főbb lehetőségei

Adatok statisztikai értékelésének főbb lehetőségei Adatok statisztikai értékelésének főbb lehetőségei 1. a. Egy- vagy kétváltozós eset b. Többváltozós eset 2. a. Becslési problémák, hipotézis vizsgálat b. Mintázatelemzés 3. Szint: a. Egyedi b. Populáció

Részletesebben

Matematika elméleti összefoglaló

Matematika elméleti összefoglaló 1 Matematika elméleti összefoglaló 2 Tartalomjegyzék Tartalomjegyzék... 2 1. Sorozatok jellemzése, határértéke... 3 2. Függvények határértéke és folytonossága... 5 3. Deriválás... 6 4. Függvényvizsgálat...

Részletesebben

Matematikai geodéziai számítások 10.

Matematikai geodéziai számítások 10. Matematikai geodéziai számítások 10. Hibaellipszis, talpponti görbe és közepes ponthiba Dr. Bácsatyai, László Matematikai geodéziai számítások 10.: Hibaellipszis, talpponti görbe és Dr. Bácsatyai, László

Részletesebben