Bizonytalanság forrásai V. Bizonytalanságkezelés Hiányzó adat mellett történő következtetés Mi lehet a páciens betegsége? Bizonytalan adatra épülő következtetés objektív Pontatlan műszerek pontatlan leolvasása: 80 C 2 C Bizonytalan következtetés: Lehet-e egy sárga bőrű páciens hepatitiszes? szubjektív objektív Ha ismerjük sárga bőrű hepatitiszesek / sárga bőrű betegek arányát? Elmosódott jelentésű állítások: Jóska magas szubjektív Ellentmondó adatokból vagy ellentmondó következtetésekből származtatott következmény 2 Bizonytalanságkezelés alapkérdései Hogyan reprezentáljuk a bizonytalanságot? Az ismeretekhez numerikus vagy szimbolikus értéket rendelünk Hogyan kombináljuk a bizonytalanságot? A logikai műveletek mentén komponált összetett ismeret bizonytalanságát a komponensek bizonytalanságából számoljuk. Hogyan következtessünk bizonytalan információból? Mennyire (milyen mértékben) bizonytalan az a következmény, amelyre bizonytalan ismeretekből következtettünk? Elméleti alapokkal rendelkező modellek Bayes modell Valószínűségi (Bayes) háló Fuzzy modell Dempster-Shafer modell Heurisztikus módszerek MYCIN Bizonytalanságkezelés technikái Általánosítva a bizonytalanságkezelés fogalmát ide sorolhatók még a nemmonoton következtetések is, amelyek viszont ellentétben a fent felsorolt numerikus technikájú módszerekkel szimbolikus technikákat használnak. 3 4. Klasszikus valószínűség számítás A központi kérdés annak a meghatározása, hogy mi az A valószínűsége, ha B bekövetkezik. Feltételes valószínűség: P(A B)= p(a B) p(b) ha p(b)>0 Jelölések: Valószínűségi változók X i =x i állításokkal dolgozunk, ahol X i egy diszkrét valószínűségi változó, x i pedig az értéke. Speciális eset az, amikor az X i lehetséges értékei: igaz vagy hamis. Ekkor az X i =igaz helyett használhatjuk az X i - t, az X i =hamis helyett pedig X i t. 5 6
Együttes valószínűségi eloszlásfüggvény szerepe a valószínűségi következtetésben Feltételes valószínűségek az események együttes valószínűségi eloszlásának ismeretében kiszámolhatók. A gyakorlatban azonban az együttes valószínűségi eloszlást nem ismerjük explicit módon, ez amúgy is túl sok apriori adat tárolását igényelné, hiszen ; a memória igény exponenciálisan nő az elemi események számával, ezért különféle elkerülő technikákat alkalmazunk. Bayes tétel különféle alakjai a) Klasszikus p(a B) p(b) p(b A) = p(a) b) Háttértudás mellett p(a B,E) p(b E) p(b A,E) = p(a E) c) Általánosított ( B,, B n teljes és független) p(a B i )p(b i ) p(b i A) = k p(a B k )p(b k ) 7 8 p(szuvas fáj,lyukas) =? P(szuvas)=0.65 Szuvas-e a fog, ha fáj és lyukas? Russel-Norvig: AI P(fáj szuvas) =0.5 P(fáj szuvas)=0. P(lyukas szuvas) =0.95 P(lyukas szuvas)=0.0 p(szuvas fáj,lyukas) =? p(sz f,ly) = Példa folytatása p(f,ly sz) p(sz) p(f,ly) Itt a klasszikus Bayes tételt alkalmaztuk, amelyhez csak a p(sz)-t ismerjük. Keressünk más utat! Alkalmazzuk a háttér tudás melletti Bayes tételt, ahol a fáj tényt háttérnek tekintjük. A p(sz f)-re pedig a közönséges Bayes tételt írjuk majd fel. (Bayes-i frissítés módszere) p(ly sz,f) p(sz f) p(ly sz,f) p(f sz) p(sz) p(sz ly,f) = = p(ly f) p(ly f) p(f) 9 0 Feltételes függetlenség Példa folytatása Közönséges függetlenség p(a,b) = p(a) p(b) Az A és a B feltételesen függetlenek a E fennállása esetén, ha p(a,b E) = p(a E) p(b E) Gyakori alkalmazási formája: p(a B,E) = p(a E) Ui: p(a B,E) = p(a,b,e)/p(b,e) = = p(a,b E) p(e)/p(b E) p(e) = p(a,b E)/p(B E) = = p(a E) p(b E)/p(B E)= p(a E) Feltételezhetjük azt, hogy a lyukas fog a szuvasodás következménye, és nem függ a fogfájástól, azaz a ly feltételesen független az f-től az sz-re nézve p(ly sz,f) = p(ly sz) Összeolvasva p(sz ly,f) = p(ly sz) p(f sz) p(sz) p(ly f) p(f) Itt csak a nevezőbeli valószínűségeket nem ismerjük, viszont a számlálóbeli sz feltételre felírt valószínűségek mellett ismertek a sz feltétel melletti valószínűségek Ilyenkor alkalmazhatjuk a normalizálás technikáját. 2 2
Példa folytatása Példa befejezése p(sz ly,f)= p(ly sz) p(f sz) p(sz) = p(ly sz) p(f sz) p(sz) p(f) p(ly f) p(ly sz) p(f sz) p( sz) p( sz ly,f)= p(f) p(ly f) = p(ly sz) p(f sz) p( sz) = p(sz ly,f) + p( sz ly,f)= = [ p(ly sz) p(f sz) p(sz) + p(ly sz) p(f sz) p( sz)] P(lyukas szuvas) =0.7 P(lyukas szuvas)=0.0 P(fáj szuvas) =0.5 P(fáj szuvas)=0. P(szuvas)=0.65 = /[p(ly sz) p(f sz) p(sz)+p(ly sz) p(f sz) p( sz)] = /[ 0.7*0.5*0.65+ 0.0*0.*0.35 ]= 0.000225 p(sz ly,f)= p(ly sz) p(f sz) p(sz)= 0.7*0.5*0.65 = /[p(ly sz) p(f sz) p(sz)+p(ly sz) p(f sz) p( sz)] p(sz ly,f)= 0.2275 0.227535 =0.99846 3 4 Bayes modell értékelése 2. Bayes (valószínűségi) hálók Még a bevetett trükkök ellenére is sok a priori valószínűséget kell tárolni. Az a priori valószínűségekhez nehéz hozzájutni. A következtetés túl ötletszerűnek tűnik, ezért nehéz algoritmizálni. Matematikailag jól megalapozott, de igen számításigényes, és magyarázatadásra nem alkalmas. A modell új ismeretekkel nehezen bővíthető. Nem elég az új esemény és a vele kapcsolatos feltételes események valószínűségeit megadni, hanem a korábbi valószínűségi értékeket is felül kell bírálni. Az előző példa megoldásánál alkalmazott módszer általánosítható lenne, ha a feltételes függetlenségek felismerése nem lenne esetleges. Egy tömör reprezentáció kellene, amelyből könnyű kiolvasni a feltételes függetlenségeket. P(fáj szuvas) =0.5 P(fáj szuvas)=0. P(szuvas)=0.65 Szuvas Fáj P(lyukas szuvas) =0.95 P(lyukas szuvas)=0.0 Lyukas 5 6 Reprezentáció Bayes hálóval Tekintsük a tárgyprobléma valószínűségi változóit. Feleltessük meg a változókat egy körmentes irányított gráf csúcsainak. Ábrázoljuk az irányított élekkel a változók közötti közvetlen ok-okozati összefüggéseket (ez által feltárjuk a feltételes függetlenségeket). Adjuk meg az csúcsok feltételes valószínűségi tábláit (FVT): p(x i =x i szülő(x i )=x i,,x ik ) ahol a szülő(x i ) az X i változó csúcsának szülőcsúcsaihoz rendelt X i,,x ik változók együttese. Bayes háló kifejező ereje Az együttes valószínűségi eloszlás (a lánc-szabály alapján) p(x =x,, X n =x n ) = = P(X n =x n X =x,, X n- =x n- )* p(x =x,, X n- =x n- ) = = P(X n =x n X =x,, X n- =x n- )* *P(X n- =x n- X =x,, X n-2 =x n-2 )*... * p(x 2 X )* p(x ) Sorszámozzuk meg úgy a változókat, hogy ha i>j, akkor X i - ből ne vezessen irányított út X j -be, azaz minden i-re szülő(x i ) {X,, X i- }. Ekkor a feltételes függetlenség miatt p(x i =x i X =x,, X i- =x i- )= p(x i szülő(x i )=x i,,x ik ) tehát az adott tárgykör együttes valószínűségi eloszlása a Bayes háló FVT-iből közvetlenül megkapható. p(x =x,, X n =x n ) = i= n p(x i =x i szülő(x i )=x i,,x ik ) 7 8 3
Feltételes függetlenség speciális esetei Bayes hálóban Feltételes függetlenség felismerése Bayes hálóban Feltételes függetlenség: p(a,b E) = p(a E) p(b E) Ha E szülője A-nak is és B-nek is. E A B Ha A szülője E-nek, és E szülője B-nek. A E B Legyenek A, B és E összetett események, azaz mindegyikhez több csúcs tartozhat a Bayes hálóban. Az A és B feltételesen független az E-re nézve, ha minden A és B-beli csúcs közti irányítatlan útvonalra az alábbi esetek valamelyike teljesül: A E B X X Ha A szülője E-nek, és E szülője B-nek B E A X 9 20 Bayes hálók tervezése Határozzuk meg a tárgytartományt leíró változók halmazát, majd meghatározott sorrendben dolgozzuk fel őket:. Válasszunk ki olyat, amely kizárólag a hálóhoz csatolt változóktól függ, és új csúcsként vegyük fel a hálóba 2. A hálóbeli változóknak vegyük azt a minimális halmazát, amelyek közvetlenül hatnak az új változóra. Rajzoljuk be ezeket a függőségeket reprezentáló éleket. 3. Töltsük ki az új csúcs FVT-jét. Betörés Riasztás Szomszéd A szomszédunk telefonált, hogy szól a betörés-riasztónk a lakásunkban. Betörtek volna hozzánk?russel-norvig: AI p(b Sz) = p(sz B)p(B) / p(sz) Bayes tétel = p(sz B)p(B) normalizálás P(B) = 0.00 = [p(sz,r B) + p(sz, R B)] p(b) telj fgl rsz P(R B) = 0.95 P(R B) = 0.00 P(Sz R) = 0.9 P(Sz R) = 0.05 = [p(sz R,B) p(r B) + lánc szabály p(sz R,B) p( R B)] p(b) = [p(sz R) p(r B) + p(sz R) p( R B)] p(b) = 0.0008575 p( B Sz) = 0.050799 =9.3585 p(b Sz) =0.066 2 22 felt. fgl. normalizálás vége Következtetés Bayes hálókban Célja egy feltételes valószínűség meghatározása a Bayes módszerre alapuló számítással (Bayes tételek, normalizálás, felbontás teljes fgl. eseményrendszerre, lánc-szabály, feltételes fgl) Egy feltételes valószínűség kiszámolására egy (rekurzív) algoritmus készíthető, amelynek számításigénye erősen függ a háló bonyolultságától. Egyszeresen kötött hálókra (fa-gráfokra), ahol két csúcs között nincsenek alternatív irányítatlan útvonalak, van lineáris futási idejű algoritmus. Többszörösen kötött hálók esetén különféle redukáló módszereket alkalmazhatunk. L= i h EÉ=i 0.5 EÉ=h 0.5 EÉ=i 0.0.0 EÉ=h 0.9 0. Locsoló VP= i h L+E=ii 0.95 0.05 L+E=ih 0.9 0. L+E=hi 0.8 0.2 L+E=hh 0. 0.9 Példa kétszeresen kötött Bayes hálóra Russel-Norvig: AI Esős évszak Vizes pázsit E= i h EÉ=i 0.8 0.2 EÉ=h 0. 0.9 Eső 23 24 4
Következtetés többszörösen kötött hálókban Összevonásos eljárások változók összevonásával fa-gráfot készítünk. Vágóhalmaz feltételezésen alapuló eljárások a hálóból több fa-gráfot készítünk úgy, hogy bizonyos változókat elhagyva, azok egy-egy értékét rögzítve készítünk fa-gráfot, és a válasz az így kapott fa-gráfokból nyert eredmények (elhagyott változók adott értékre vonatkozó valószínűségével) súlyozott átlaga lesz. Sztochasztikus szimulációs eljárások A háló valószínűségi értékekeit figyelembe véve példákat generálunk. A válasz a jó példák relatív gyakorisága lesz. A és B-nek megfelelő példák száma p(a B) = B-nek megfelelő példák száma Bayes hálók tanulása FVT tanulása ismert háló-struktúra mellett példák (azaz változók által felvett érték-együttesek) alapján: Az egyes feltételes valószínűségeket a példák száma alapján mért relatív gyakorisági értékkel becsüljük. Probléma: ha a példák hiányosak, azaz nem ismerjük, hogy egy példában bizonyos változó milyen értéket vesz fel. Bayes háló szerkezetének tanulása: Metrikát definiálunk a feladat és az azt leíró háló távolságára és ez alapján keressük a legjobban illeszkedő struktúrát. 25 32 Bayes hálók értékelése Kevesebb a priori valószínűséget kell benne tárolni, mintha az együttes valószínűségi eloszlásfüggvényt akarnánk ábrázolni. Egyszerűen bővíthető anélkül, hogy eddigi valószínűségeket újra kellene gondolni. A következtetés felhasználható magyarázatadásra. Matematikailag jól megalapozott, de - az erőfeszítéseink ellenére - igen számításigényes. Betörés-riasztó-szomszéd probléma: 3. Heurisztikus technikák szabályok: ha a szomszéd hallja a riasztót akkor szól a riasztónk Sz R (0.95) ha szól a riasztónk akkor betörtek hozzánk R B (0.999) tény: a szomszéd telefonál, hogy hallja a riasztót Sz Betörtek-e hozzánk? Sz, Sz R R ; R, R B B T (p), T K (q) K (p*q) Sz () R (0.95) B(0.95*0.999) 36 37 MYCIN bizonyossági mértéke MYCIN kalkulusa A klasszikus valószínűségi értékek helyett közelítő értéket - bizonyossági faktort - rendelünk az egyes állításokhoz. h bizonyossági faktora CF[h] = MB[h]-MD[h] MB[h] ~ a h-ban való hit mértéke MD[h] ~ a h-ban való kételkedés mértéke Az e h alakú állítások mértékei e fennállása esetén a h bizonyossági faktora: CF[h,e]=MB[h,e] -MD[h,e] Következmény mértéke MB[h] = MB[e] *MB[h,e] Összetett állítások mértékei MB[h h 2,e] = min(mb[h,e],mb[h 2,e]) MB[h h 2,e] = max(mb[h,e],mb[h 2,e]) Interferencia szabály MB[h,e e 2 ] = MB[h,e ] +MB[h,e 2 ](- MB[h,e ]) ha MD[h,e e 2 ] =0 MD[h,e e 2 ] = MD[h,e ] +MD[h,e 2 ](- MD[h,e ]) 0 ha MB[h,e e 2 ] = 38 39 5
Előnyei: MYCIN modell értékelése Közel áll az ember valóságszemléletéhez. Ezt sokszor azzal is erősítik, hogy a [0,] intervallum helyett [0,00] skálával dolgoznak. Könnyű vele számolni. Hátrányai: Nem általánosítható a használata. Nem rendelkezik jól megalapozott elmélettel. Egy attribútum lehetséges értékeinek CF-jeit összeadva nem jön ki eredményül. Tudjuk, hogy HA tananyag nehézsége=közepes ÉS jegyzeteltsége=rossz AKKOR tanulási_idő=hosszú HA tananyag nehézsége=könnyű ÉS jegyzeteltsége=rossz AKKOR tanulási_idő=közepes 4. Fuzzy következtetés Mennyi ideig tanuljuk a 45%-ban nehéz, 3%-osan jegyzetelt tananyagot? 40 4 Fuzzy halmaz Tagsági függvény Azt eldönteni, hogy egy elem egy adott kategóriába besorolható-e nem mindig egyértelmű Egy pont félig nehéz tananyag biztosan (00 %-osan) mondható közepes nehézségűnek. De mit mondhatunk egy harmad nehézségű tananyagról? Ez mennyire (hány százalékosan) közepes nehézségű? Egy fuzzy (gyengén definiált) halmazhoz tartozó elemekhez hozzárendelünk egy 0 és közötti értéket annak kifejezésére, hogy mennyire tekinthető biztosnak az, hogy az elem a halmazban van. közepes nehézségű tananyag fogalma tehát egy fuzzy halmaz, ahol egy konkrét tananyag ennek egy eleme. Az A fuzzy halmazhoz tartozó tagsági függvény egy A :X [0,] leképezés. Megadja egy elemről (pl. a 33%-osan nehéz tananyagról), hogy milyen mértékben tartozik egy fuzzy halmazhoz (pl. a közepesen nehéz tananyagokhoz). A = {(x, A (x)) x X} 42 43 nehézség közepes 00% A példa tagsági függvényei Fuzzy állítás nehézség tagsági függvényei: könnyű közepes nehéz 00% jegyzeteltség tagsági függvényei: rossz hiányos jó tanulási_idő tagsági függvényei: közepes hosszú 00% nap 7 Minden fuzzy halmazhoz megadható az a fuzzy állítás, amely azt dönti el, hogy egy elem a fuzzy halmazhoz tartozik-e. Ennek kimenetele nem az igaz és hamis értékek, hanem a [0,] intervallum egy eleme. Egy 50%-os nehézségű tananyag biztosan (00%), azaz mértékben mondható közepesnek, egy 6,5%-os nehézségű tananyag már egyáltalán nem közepes nehézségű, azaz 0 mértékben tartozik oda, a 33%-os nehézségű tananyagról csak ½ mértékben (50%) mondhatjuk, hogy közepes. 44 45 6
Terminológia Fuzzifikálás, defuzzifikálás Egy fuzzy állítás egy elemről (pl. egy 33%-os nehézségű tananyagról) dönti el, hogy az egy fuzzy halmazhoz (pl. közepesen nehéz tananyagok közé) tartozik-e. Egy fuzzy halmazt egy nyelvi változó és annak értéke, a nyelvi kifejezés együttesen határozza meg. o nyelvi változó ~ pl. tananyag nehézsége o nyelvi kifejezés ~ pl. könnyű, közepes, nehéz. Finomítás céljából nyelvi kifejezésekre nyelvi módosítókat (nagyon, többé-kevésbé, stb.) is alkalmazhatunk Pl: nagyon könnyű (x) = könnyű (x) 2, többé_kevésbé nehéz (x) = nehéz (x) ½ Fuzzifikálás az folyamat, amikor kiszámítjuk, hogy egy elem melyik fuzzy halmazhoz milyen mértékben tartozik. Pl: egy 33%-os nehézségű tananyag milyen mértékben tartozik a közepes, milyen mértékben a könnyű tananyagok közé. Defuzzifikálás során egy fuzzy halmaznak keressük a legjellemzőbb elemét, amelynek a fuzzy halmazhoz tartozásának mértéke a legnagyobb. Pl: Hány nap a közepes tanulási_idő? Súlypont (centroid) módszer közepes 46 47 2,5 7 nap A példa fuzzifikálása A példa fuzzifikálásának folytatása Kérdés: Mennyi ideig tanuljuk a 45%-ban nehéz, 3%-osan jegyzetelt tananyagot? Először eldöntjük, hogy az adott fuzzy halmazok közül melyikhez,milyen mértékben tartozik a tananyag? könnyű nehézségű (KN) 0.22 mértékben 0.22 könnyű 45% 00% közepes nehézségű (KZ) 0.68 mértékben 48 49 0.68 45% 3% közepes 00% rosszul jegyzetelt (RJ) 0.48 mértékben rossz 0.48 00% A példa fuzzy szabályai Vesszük a tanulási_időre következtető szabályokat: HA tananyag_nehézsége=közepes (KZN) ÉS jegyzeteltség=rossz (RJ) AKKOR tanulási_idő=hosszú (HI) HA tananyag_nehézsége=könnyű (KNN) ÉS jegyzeteltség=rossz (RJ) AKKOR tanulási_idő=közepes (KI) Mindkét szabály előfeltétele bizonyos mértékben illeszkedik a tényállításokhoz: közepes nehézségű tananyag ( KZN(x)=0.68) rossz jegyzet ( RJ(x)}=0.48) könnyű tananyag ( KNN(x)= 0.22) Alapműveletek: (A és B fuzzy halmazok) A (x) = A (x) = - A (x) Műveletek fuzzy állításokkal A B (x) = ( A B )(x) = min{ A (x), B (x)} A B (x) = ( A B )(x) = max{ A (x), B (x)} Következtetés: A (x) és A B (x,y) x A és ha x A akkor y B B (y) = sup u U min { A (x), A B (x,y)} y B A (x ) és A B (x) B (x) = min { A (x), A B (x)} x A és ha x A akkor x B x B 50 5 7
Mindkét szabály előfeltételét kiszámoljuk Fuzzy következtetés ( KZN RJ )(x) = min{ KZN(x), RJ(x)} = 0.48 ( KNN RJ )(x) = min{ KNN(x), RJ(x)} = 0.22 Meghatározzuk a szabályok következményeit A (x ) és A B (x) B (x) = min { A (x), A B (x)} HI (x) = ( KZN RJ )(x) = 0.48 mert ( KZN RJ HI )(x)= KI (x) = ( KNN RJ )(x) = 0.22 mert ( KNN RJ KI )(x)= 52 A példa következményeinek tagsági függvényei A következményének tagsági függvényei: hosszú közepes 0.48 nap 0.22 nap 7 Az eredő (maximum) következmény tagsági függvénye: 7 közepes hosszú 0.48 0.22 nap 7 53 A példa defuzzifikálása A kapott eredmény számszerűsítése centroid (súlypont) módszerrel: vetítsük le az eredő tagsági függvény grafikonja és a vízszintes tengely által bezárt síkidom súlypontját a vízszintes tengelyre. közepes hosszú 0.48 0.22 nap 4,5 7 Tehát 4,5 napig kell tanulni. Megjegyzés Ellentétben a Bayes modellel, ahol a bizonytalansági mérték az események előfordulásának bizonytalanságát fejezi ki, itt a rosszul vagy pontatlanul definiált események előfordulásának mértékével foglalkozunk. Szemben heurisztikus modellek bizonyossági tényezőjével (MYCIN), amelyek azt fejezik ki, hogy mennyire vagyunk biztosak abban, hogy egy elem beletartozik-e egy halmazba, itt azzal foglalkozunk, hogy milyen mértékben tartozik bele. 54 55 Előnyei: Fuzzy modell értékelése Közel áll az ember valóságszemléletéhez: nem kell számszerűsíteni a bizonyosság mértékét. A numerikus modellekkel szemben egyszerűbb a rendszerleírás. Előnyösen alkalmazható hiányos és bonyolult feladatok esetén Könnyű vele számolni. Hátrányai: Tagsági függvény megadása nehéz, nincs mögötte elméleti megalapozás. Kombinációs függvények kritikája (pl. üres metszetű halmazok) 5. Dempster-Shafer elmélet Az állítások valószínűségének van egy bizonytalansága, amit a tények ismeretének hiánya okoz, hiszen egy állítás bekövetkezésének valószínűsége erősen függ attól, hogy milyen tényeket ismerünk. Mennyi annak a valószínűsége, hogy egy tény támogatja az állítást? Mit mondjunk, milyen valószínűséggel dobhatunk fejet egy pénzérmével, ha tudjuk, hogy az érme szabálytalan; mit, ha szabályos; vagy mit, ha 90%-os valószínűséggel szabályos? 56 57 8
Valószínűség változása a tények függvényében Fogalmak Ha nincs bizonyíték nincs arra, hogy az érme szabályos: Mennyire higgyük, hogy a dobás ½ valószínűséggel fej lesz? Semennyire: 0 * ½ = 0. Ez a fej-dobás valószínűségének alsó határa, a fej-dobásba vetett teljes bizalom. Mennyire higgyük, hogy a dobás ½ valószínűséggel nem lesz fej? Semennyire. Tehát az ellenkező esemény, a fej-dobás valószínűségének felső határa, az elfogadhatósága: 0* ½ =. A fej-dobás kimenetelének bizonytalansága: [0,] Ha az érme 90%-os valószínűséggel szabályos. Fej-dobás valószínűségének alsó határa: 0.9* ½ = 0.45 Fej-dobás valószínűségének felső határa, 0.9* ½ = 0.55 A fej-dobás kimenetelének bizonytalansága: [0.45,0.55] Szabályos érme esetén az intervallum [½, ½] Hiedelem függvény értékének számítása a valószínűségi alap függvény segítségével történik: Bel(a)= x {a} m(x) Bizalom intervallum: [Bel(a), Bel( a)] Valószínűségi alap függvény Legyen elemi állítások halmaza. Adott tény(ek)hez tartozó m:2 [0,] függvény azt mutatja meg, hogy az a összetett állítás milyen mértékben (m(a)) függ a tényektől. Definíció szerint a valószínűségi alap függvényre teljesül x m(x)= m( )=0 58 59 0. Példa. Példa Három fogoly ( A,B,C ) tudja, közülük egyet kivégeznek (H X ), a többieket felmentik. p(h A )= p(h B )= p(h C )= ½ Ha semmilyen tényt nem ismerünk, akkor csak az biztos, hogy {H A, H B, H C } esemény biztosan bekövetkezik, azaz m({h A, H B, H C })=. Azért, hogy x m(x)= teljesüljön: m({h A })=m({h B })=m({h C })=m({h B,H C })= = 0 Ekkor A-nak a kivégzésébe vetett hite: [0,] Bel(H A ) = x {HA } m(x) = m({h A })= 0 Bel( H A )= Bel(H B,H C ) = x {H B H C } m(x) = = m({h B })+ m({h C }) +m({h B,H C }) = 0+0+0 =0 Az A fogoly megkéri az őrt, vigyen el egy levelet annak a fogolytársának, akit felmentettek. Az A megtudja, hogy levelet az őr 80%-os valószínűséggel B-nek adta. p(h B )= 0, p(h A )= p(h C )= ½ m({h B })= 0.8* 0, m({h C })= m({h A })=0.8*½ m({h A, H B, H C })= 0.2 (hogy x m(x)= teljesüljön) Ekkor A-nak a kivégzésébe vetett hite: [0.4, 0.6] Bel(H A ) = x {HA } m(x) = m({h A })= 0.4 Bel( H A )= Bel(H B,H C ) = x {H B H C } m(x) = = m({h B })+ m({h C })= 0 + 0.4= 0.4 60 6 2. Példa Az A fogoly (most nem történt meg az előző példában említett levelezés) csak azt tudja 60%-os bizonyossággal az őrtől, hogy C a halálraítélt. p(h C )=, p(h A )= p(h B )= 0 m({h C })=0.6, m({h A }) = m({h B }) = 0, m({h A,H B,H C })= 0.4 (hogy x m(x)= teljesüljön) Ekkor A-nak a kivégzésébe vetett hite: [0, 0.4] Bel(H A ) = x {HA } m(x) = 0 Bel( H A )= Bel(H B,H C )= x {H B H C } m(x) = = m({h B })+ m({h C })= 0 + 0.6 Eredő valószínűségialap függvény Eredő valószínűségi alap függvény: x y=z m (x)m 2 (y) m E (z)= - x y= m (x)m 2 (y) z Ø Matematikai alapok: Az eredő függvényre teljesülnek a valószínűségi alap függvény kritériumai. z, z m E (z) = hiszen z, z x y=z m (x)m 2 (y) = = z x y=z m (x)m 2 (y)- x y= m (x)m 2 (y)= = x y m (x)m 2 (y)- x y= m (x)m 2 (y)= = x m (x) y m 2 (y)- x y= m (x)m 2 (y) = - x y= m (x)m 2 (y) 62 63 9
Hiedelmek összevetése. és 2. példa összevonása x y=z m (x)m 2 (y) x y= m (x)m 2 (y) =0.24 m 2 {H C } 0.6 0.4 m {H A } 0.4 0.24 {H A } 0.6 {H C } 0.4 {H C } 0.24 {H C } 0.6 m E ({H A })=0.6/(-0.24) = 0.2 m E ({H C })=(0.24+0.2+0.6) /(-0.24) = 0.68 m E ({ })=0.08/(-0.24) = 0. 0.2 {H C } 0.2 0.08 Az A tudja, hogy az őr 80%-os valószínűséggel B-nek vitte a levelet, és 60%-os valószínűséggel az őr szerint C-t ítélték halálra. A két tény valószínűségi alap függvényéből kiszámoltuk a két tényre együttesen támaszkodó eredő valószínűségi függvényt. Ez alapján a hiedelem intervallum: [0.2,0.32] m({h A })=0.2, m({h C })=0.68, m({h A,H B,H C })=0. Bel(H A ) = x {HA } m(x) = m({h A })= 0.2 Bel( H A )= Bel(H B,H C ) = x {HB H C } m(x) = m({h B })+ m({h C })= 0 + 0.68 64 65 Előnyei: Dempster-Shafer elmélet értékelése A klasszikus valószínűség számítással szemben nem elemi eseményekkel foglalkozik Nem igényli apriori valószínűségek megadását Matematikailag jól megalapozott Képes különböző tények bizonyító erejét összegezni. Hátrányai: Összes megfigyelhető esetet elő kell állítani, amelyekre az alap valószínűségi függvény értékeket meg kell adni. MYCIN értékelése Egyszerűsített változataival több korai szakértő rendszernél találkozhatunk. M. bizonyossági faktora 0 00 közötti (százalékos) értéket ad és közvetlenül kombinálható. Elméleti háttér nélkül (a mértékek nem mutatnak valószínűségi eloszlást) bizonyos feladatokon meglepően jól használható. Kevés a priori érték tárolása mellett kicsi számításigényű kalkulus. Jól illeszkedik a szabályalapú következtetéshez, a következmény bizonyossági mértéke leválasztható a feltételekről. 66 67 0