TANULÁS. I. Logikai formulák tanulása. Tanulási módok. Miért m ködik jól az induktív tanulás? Induktív tanulás



Hasonló dokumentumok
VIII. INDUKTÍV TANULÁS

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

ÍTÉLETKALKULUS (NULLADRENDŰ LOGIKA)

1. gyakorlat. Mesterséges Intelligencia 2.

2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit.

Programozási módszertan. A gépi tanulás alapmódszerei

Predikátumkalkulus. 1. Bevezet. 2. Predikátumkalkulus, formalizálás. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák.

Ítéletkalkulus. 1. Bevezet. 2. Ítéletkalkulus

Számítógép és programozás 2

Predikátumkalkulus. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. Vizsgáljuk meg a következ két kijelentést.

Diszkrét matematika 1. középszint

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Deníciók és tételek a beugró vizsgára

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

AZ INFORMATIKA LOGIKAI ALAPJAI

Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével

Online algoritmusok. Algoritmusok és bonyolultságuk. Horváth Bálint március 30. Horváth Bálint Online algoritmusok március 30.

értékel függvény: rátermettségi függvény (tness function)

Matematika alapjai; Feladatok

A logikai következmény

Ítéletkalkulus. 1. Bevezet. 2. Ítéletkalkulus

értékel függvény: rátermettségi függvény (tness function)

Ellenőrző kérdések. 36. Ha t szintű indexet használunk, mennyi a keresési költség blokkműveletek számában mérve? (1 pont) log 2 (B(I (t) )) + t

19. AZ ÖSSZEHASONLÍTÁSOS RENDEZÉSEK MŰVELETIGÉNYÉNEK ALSÓ KORLÁTJAI

Mesterséges Intelligencia MI

Mesterséges Intelligencia I. (I602, IB602)

2. Visszalépéses stratégia

1. tétel - Gráfok alapfogalmai

Logika és informatikai alkalmazásai kiskérdések február Mikor mondjuk, hogy az F formula a G-nek részformulája?

Diszkrét matematika 2.C szakirány

Logikai ágensek. Mesterséges intelligencia március 21.

Sztöchiometriai egyenletrendszerek minimális számú aktív változót tartalmazó megoldásainak meghatározása a P-gráf módszertan alkalmazásával

2. Visszalépéses keresés

V. Kétszemélyes játékok

Diszkrét matematika 2.C szakirány

Függvények Megoldások

Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.

A valós számok halmaza

Az informatika logikai alapjai

Az optimális megoldást adó algoritmusok

5/1. tétel: Optimalis feszítőfák, Prim és Kruskal algorithmusa. Legrövidebb utak graphokban, negatív súlyú élek, Dijkstra és Bellman Ford algorithmus.

Diszkrét matematika 2. estis képzés

definiálunk. Legyen egy konfiguráció, ahol és. A következő három esetet különböztetjük meg. 1. Ha, akkor 2. Ha, akkor, ahol, ha, és egyébként.

Diszkrét matematika 2.

Rekurzió. Dr. Iványi Péter

Elméleti összefoglaló a Valószín ségszámítás kurzushoz

Adatbázisok elmélete 12. előadás

Gráfok 2. Legrövidebb utak, feszítőfák. Szoftvertervezés és -fejlesztés II. előadás. Szénási Sándor

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

ALAPFOGALMAK 1. A reláció az program programfüggvénye, ha. Azt mondjuk, hogy az feladat szigorúbb, mint az feladat, ha

Automaták és formális nyelvek

Kétszemélyes játékok Gregorics Tibor Mesterséges intelligencia

Adatok statisztikai értékelésének főbb lehetőségei

KOVÁCS BÉLA, MATEMATIKA I.

Turing-gép május 31. Turing-gép 1. 1

Logika es sz am ıt aselm elet I. r esz Logika Hatodik el oad as 1/33

Gépi tanulás a gyakorlatban. Bevezetés

Diszkrét matematika 2.C szakirány

Logika es sz am ıt aselm elet I. r esz Logika Negyedik el oad as 1/26

17. A 2-3 fák és B-fák. 2-3 fák

Diszkrét matematika 2.C szakirány

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

R ++ -tree: an efficient spatial access method for highly redundant point data - Martin Šumák, Peter Gurský

GRÁFELMÉLET. 7. előadás. Javító utak, javító utak keresése, Edmonds-algoritmus

2. Logika gyakorlat Függvények és a teljes indukció

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens orvosi műszerek VIMIA023

Mesterséges Intelligencia MI

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

Dr. habil. Maróti György

GAZDASÁGMATEMATIKA KÖZÉPHALADÓ SZINTEN

Segédanyagok. Formális nyelvek a gyakorlatban. Szintaktikai helyesség. Fordítóprogramok. Formális nyelvek, 1. gyakorlat

30. ERŐSEN ÜSSZEFÜGGŐ KOMPONENSEK

1. tétel. Valószínűségszámítás vizsga Frissült: január 19. Valószínűségi mező, véletlen tömegjelenség.

Logika és informatikai alkalmazásai

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

8. Egyenletek, egyenlőtlenségek, egyenletrendszerek II.

Opkut deníciók és tételek

Valószín ségszámítás. Survey statisztika mesterszak és földtudomány alapszak Backhausz Ágnes 2018/2019.

[Biomatematika 2] Orvosi biometria

Gépi tanulás. Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence)

Amortizációs költségelemzés

Automaták mint elfogadók (akceptorok)

Chomsky-féle hierarchia

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények

Adatszerkezetek 2. Dr. Iványi Péter

Társadalmi és gazdasági hálózatok modellezése

Matematikai logika. 3. fejezet. Logikai m veletek, kvantorok 3-1

HALMAZELMÉLET feladatsor 1.

Logika és informatikai alkalmazásai

352 Nevezetes egyenlôtlenségek. , az átfogó hossza 81 cm

Adaptív dinamikus szegmentálás idősorok indexeléséhez

Biomatematika 2 Orvosi biometria

Elméleti összefoglaló a Sztochasztika alapjai kurzushoz

Modellek és Algoritmusok - 2.ZH Elmélet

file:///d:/okt/ad/jegyzet/ad1/b+fa.html

Mesterséges intelligencia, 7. előadás október 13. Készítette: Masa Tibor (KPM V.)

7 7, ,22 13,22 13, ,28

Átírás:

TANULÁS Egy algoritmus tanul, ha egy feladat megoldása során olyan változások következnek be a m ködésében, hogy kés bb ugyanazt a feladatot vagy ahhoz hasonló más feladatokat jobb eredménnyel, illetve jobb hatékonysággal képes megoldani, mint korábban. A tanulás során változhat a feladat reprezentációja (valószín ségi hálók) megoldó algoritmusa (genetikus programozás) heurisztikája (B algoritmus) Tanulási módok Felügyelt tanulás: Feladat-megoldás párok alapján. Karakter felismerés Meger sítéses tanulás: Lépéssorozat-hasznosság párok alapján (csak adott feladat tanulására). Kétszemélyes játék Felügyelet nélküli tanulás: Feladatok, illetve az azt megoldó lépések közötti összefüggéseket ismeri fel, és osztályozza azokat. Asszociatív memória 1 2 Induktív tanulási modell Induktív tanulás Az f leképezést tanuljuk meg az (x i,f(x i )) tanító példák (minták) alapján úgy, hogy el állítunk egy olyan h leképezést (hipotézist), amelyre h ~ f Adaptív (inkrementális) tanulás A korábban talált h hipotézist egy új minta esetén anélkül módosítjuk, hogy a korábbi mintákat újra megvizsgálnánk. Miért m ködik jól az induktív tanulás? Ha fenn áll a stacionaritási feltétel: A tanító példák és a teszt-példák ugyanabból a populációból történ véletlen kiválasztással származnak, akkor bármely súlyos hibákkal terhelt hipotézis már kis számú példa vizsgálata után nagy valószín séggel megbukik, azaz képzelhet el, hogy a rossz hipotézis a tanító példákra jó eredményt ad, és majd éles helyzetben félrevezet bennünket. 3 4 példára van szükség ahhoz, hogy ne kapjunk rossz hipotézist? Legyen ε-nál nagyobb annak a valószín sége, hogy egy rossz h hipotézis rossz eredményt ad egy tanító példára. Annak valószín sége, hogy a rossz h mindegyik tanító példára (m darab) jó eredményt ad kisebb, mint (1-ε) m Annak a valószín sége, hogy a rossz hipotézisek (H rossz H) között van mindegyik példára jó eredményt adó hipotézis kisebb, mint H rossz (1-ε) m H(1-ε) m. Tekintsük a δ-t ah(1-ε) m fels korlátjának. Ebb l a tanító példák számosságára kapunk alsó korlátot: m 1/ε (ln(1/δ) + lnh) I. Logikai formulák tanulása Adott egy Q célpredikátum, amelynek csak néhány kiértékelését (tanító példák) ismerjük. Keressük a Q- val logikailag ekvivalens formulát. Egy hipotézis egy ilyen logikai formulát jelöl ki: H i (x) Q(x) Az összes hipotézis alkotja a hipotézis teret (probléma tér) 5 6 1

tanulás = keresés a hipotézistérben A tanulás során azt a hipotézist (hipotéziseket) keressük, amelyek az eddig vizsgált tanító példákra teljesülnek. A vizsgált hipotézis szempontjából a tanító példa lehet igazoló, vagy cáfoló. A cáfoló (hamis) tanító példa lehet pozitív = a hipotézis szerint igaz, a célpredikátum szerint hamis negatív = a hipotézis szerint hamis, a célpredikátum szerint igaz Speciális alakú példák speciális alakú logikai formulával jellemezhet 1. Döntési fák Egy objektumnak vagy egy szituációnak szeretnénk megítélni egy adott tulajdonságát (ezt a továbbiakban kérdésnek nevezzük) annak alapján, hogy néhány más tulajdonságát (attribútumait) ismerjük. Alkalmazzunk ehhez egy olyan irányított fát, amelynek minden -levél (bels ) csúcsa egy attribútumot jelenít meg, az ebb l kivezet élek pedig az attribútum lehetséges értékeit szimbolizálják. A fa levelei a kérdésre adható lehetséges válaszokat tartalmazzák. 7 8 Példa A példa egy döntési fája Elfogadjuk-e a megajánlott vizsgajegyet? Ha az ötös, akkor feltétlenül. Ha négyes és kevés vizsgánk van és értettük az el adást, akkor ; feltéve, hogy a tárgy az analízis. Ha hármas és az átlagot kell javítanunk, akkor. stb. ötös as? négyes Kevés vizsgánk van? nincs Analízis? Értettük az el adást? hármas Kell átlagot javítani? 9 Döntési fák kifejez ereje A döntési fa ágai (példák) speciális szabályokat reprezentálnak: x Ajánlott_Jegy(x,négyes) Kevés_Vizsga(x,) Analízis(x,) Értettük(x,) Elfogadjuk(x) Ilyen x P 1 (x,v 1 ) P m (x,v m ) Q(x) formula kifejezhet egy p v1 p vm q ítéletkalkulusbeli formulával is. A döntési fa egy f:a 1 A m L logikai függvényt reprezentál; egy ág az f(v 1,...,v n ) esetet írja le, és fordítva: minden logikai függvényhez adható döntési fa. 11 Étterem probléma (Russel-Norvig) Pl. Más Bár P/Sz Éhes Ár Es Fogl Fajt Id Marad 1 I N N I kevés drá N I Fra 10 I 2 I N N I tele olcs N N Tha 60 N 3 N I N N kevés olcs N N Bur 10 I 4 I N I I tele olcs N N Tha 30 I 5 I N I N tele drá N I Fra sok N 6 N I N I kevés köz I I Ol 10 I 7 N I N N senki olcs I N Bur 10 N 8 N N N I kevés köz I I Tha 10 I 9 N I I N tele olcs I N Bur sok N 10 I I I I tele drá N I Ol 30 N 11 N N N N senki olcs N N Tha 10 N 12 I I I I tele olcs N N Bur 60 I 12 2

Étterem probléma els lépés Alternatív lépések +: 1,3,4,6,8,12 -: 2,5,7,9,10,11 +: +: 1,3,6,8 -: 7,11 -: Más, Bár, P/Sz, Éhes,, Ár, Es, Fogl, Fajt, Id +: 4,12 -: 2,5,9,10 Más, Bár, P/Sz, Éhes, Ár, Es, Fogl, Fajt, Id Más +: 1,4,12 -: 2,5, 10 +: 3, 5, 8 -: 7, 9,11 Burg +: 3,12 -: 7,9 Fajt +: +: 1,3,6,8 +: 4,12 -: 7,11 -: -: 2,5,9,10 Fra Ol Thai +: 1 +: 6 +: 4,8 -: 5 -: 10 -: 2,11 13 14 Heurisztika Arra kell törekedni, hogy a döntési fa minél tömörebb, egy-egy ága minél rövidebb legyen, azaz a választott attribútum (a) a példákat olyan részhalmazokra vágja szét, amelyeken belül a példák minél kevesebb attribútumban különböznek, más szavakkal a szétvágás információs el nye, azaz a szétvágás el tt példa-halmaz (P) információ tartalmának és az utána kapott példa-részhalmazok (P a=v ) információ tartalmának (számosságuk szerinti súlyozott) összege közti különbség legyen minél nagyobb. Információ tartalom A P-beli példák információtartalma (entrópiája): A P-beli példák információtartalma (entrópiája): E(P) = E(p +, p _ ) = _ p + log 2 p + _ p _ log 2 p _ ahol p + a P-beli pozitív, p _ a negatív példák aránya (p + +p _ =1) Példa: Ha P-ben 2 pozitív és 3 negatív példa van: E(P) = E(2/5, 3/5 ) = 0.97 Ha P-ben 0 pozitív és 3 negatív példa van: E(P) = E(0/3, 3/3 ) = 0 15 16 Információs el ny számítása Étterem probléma második lépése P a a A v 1 v 2 v 3 P a=v1 P a=v2 P a=v3 C(P,a)= E(P) - Σ P a=v E(P a=v ) v Érték(a) P ahol P a szül csúcs tanító példái, a a választott attribútum, az Érték(a) az a attribútum által felvett értékek, és a P a=v ={p P p.a=v } 17 C(P,a)= E(p +, p _ ) - Σ = = E(2/6,4/6) - Σ = 0.92 - Σ +: 4,12 Más, Bár, P/Sz, Éhes, -: 2,5,9,10 Ár, Es, Fogl, Fajt, Id Ha most a Más attribútumot választjuk, akkor a példák ketté válnak: 9 (Más= hamis), és 2, 4, 5, 10, 12 (Más=igaz), Az els csoportban egy negatív példa van, a másodikban két pozitív és három negatív. = 0.92 - ( 1/6 E(0/1,1/1) + 5/6 E(2/5,3/5) ) = 0.92-0.81 = 0.11 18 3

Étterem probléma második lépése C(P,a)= 0.92 - Más: 1/6 E(0/1,1/1)+ 5/6 E(2/5,3/5)= 0.81 Bár: 3/6 E(1/3,2/3)+ 3/6 E(1/3,2/3))= 0.92 P/Sz: 1/6 E(0/1,1/1)+ 5/6 E(2/5,3/5)= 0.81 Éhes: 4/6 E(2/4,2/4)+ 2/6 E(0/2,2/2)= 0.67 Ár: 4/6 E(2/4,2/4)+ 0/6 E(0,0)+ 2/6 E(0/2,2/2)= 0.67 Es : 5/6 E(2/5,3/5)+ 1/6 E(0/1,1/1)= 0.81 Fog: 4/6 E(2/4,2/4)+ 2/6 E(0/2,2/2)= 0.67 Fajt: 2/6 E(1/2,1/2)+ 1/6 E(0/1,1/1)+ 1/6 E(0/1,1/1)+ Id : +2/6 E(1/2,1/2)= 0.67 0/6 E(0,0 )+ 2/6 E(1/2,1/2)+2/6 E(1/2,1/2 ) + 2/6 E(0/2,2/2)= 0.67 Étterem probléma második lépése +: 4,12 Más, Bár, P/Sz, Éhes, -: 2,5,9,10 Ár, Es, Fogl, Fajt, Id Más, Bár, P/Sz, Ár, Es, Fogl, Fajt, Id +: 4,12 -: 2,10 Más, Bár, P/Sz, Éhes,, Ár, Es, Fogl, Fajt, Id Éhes +: -: 5,9 20 Étterem probléma döntési fája Éhes Fajt Fra Ol Thai Burg P/Sz 21 Döntési fák tanulása Egy épül döntési fában vannak attribútumokkal vagy - értékkel címkézett, illetve címkézetlen csúcsok. Minden csúcs rendelkezik a tanító példák egy P részhalmazával, és a választható A attribútumokkal. Csak az attribútummal címkézett csúcsból vezetnek ki élek, és ezek az attribútum egy-egy lehetséges értékével van megcímkézve. 22 Algoritmus Kezdetben a fa egy címkézetlen (gyökér) csúcsból áll, amelyhez az összes tanító példát és attribútumot rendeljük. Adott egy címkézetlen csúcs: 1. Ha P=, akkor levélcsúcsot kaptunk, amelynek értékét a szül csúcs példáinak többségi szavazása alapján döntjük el. 2. Ha P csak pozitív (vagy csak negatív) példából áll, akkor egy (illetve ) levélcsúcsnál vagyunk. 3. Ha A=, akkor is levélcsúcsot kaptunk, és a csúcs pozitív és negatív példáinak többségi szavazása alapján döntjük el annak értékét. 4. Egyébként... 23 Algoritmus (folytatás) 4. Egyébként a legnagyobb információs el nnyel járó, még teszteletlen a A attribútumot rendeljük az adott csúcshoz, majd generáljuk összes gyerekét: a) ezekhez az a lehetséges értékeivel címkézett élek vezetnek. b) Ha az a címkéj csúcsból egy gyerekcsúcsába a v címkéj él vezet, akkor az ahhoz rendelt példák: P a=v ={p P p.a=v } attribútumok: A= A-{a} c) Végül minden gyerekre ismételjük meg rekurzív módon az 1-4 pontokat. 24 4

Összefoglalás Döntési fa létrehozása példák alapján induktív tanulással pozitív és negatív példák alapján egy tanító példa sorozathoz több, azt kifejez döntési fa is megadható a legkisebb döntési fa magadása egy megoldható probléma Döntési fa felhasználása a tanító példákra tökéletes a tanító példákhoz hasonló példákra többnyire jó 25 Megjegyzés Zaj: Két vagy több eltér a besorolású példának attribútum-értékei megegyeznek. (lásd alg. 3.lépés) Megoldás többségi szavazással. Túlzott illeszkedés: Például a kocka dobásra annak színe és dátuma alapján értelmetlen szabályszer ségeket találunk. Megoldás a lényegtelen attribútumok (C(P,a)~0) félreállítása. Általánosítások: Hiányzó adatok problémája Sok-érték attribútumok Folytonos érték attribútumok 26 2. Pillanatnyilag legjobb hipotézis Amikor egy új példa ellentmond az adott hipotézisnek, ha az cáfoló pozitív, akkor szigorítjuk a hipotézist. ha az cáfoló negatív, akkor gyengítjük a hipotézist. Étterem probléma 1.példa (Más=I,, =kevés) pozitív, mint például a Más attribútuma H 1 : Más(x) Marad(x) 2.példa (Más=I,, =tele) negatív, de H 1 alapján pozitív lenne (cáfoló pozitív). Szigorítjuk a attribútummal, amely kevés érték mellett kizárja a 2.példát, de illeszkedik az 1.példához H 2 : Más(x) ((x,kevés) (x,senki)) Marad(x) 27 28 Étterem probléma folytatása Hátrány 3.példa (Más=N) pozitív, de H 2 szerint (a Más feltétel miatt) negatív (cáfoló negatív). Gyengítjük a Más feltétel törlésével. H 3 : (x,kevés) (x,senki) Marad(x) 4.példa (=tele,,p/sz=i) pozitív, de H 3 szerint negatív (cáfoló negatív). gyengíthetjük törléssel. H 4 : (x,kevés) (x,senki) ((x,tele) P/Sz(x) Marad(x) H 4 : Vár(x,60) Marad(x) H 4 : (x,kevés) (x,senki) ((x,tele) Vár(x,30)) Marad(x) A fenti -determinisztikus módszer egy nagy keresési térben zajlik Amikor a hipotézis keresés zsákutcába jut, mert olyan hipotézishez jutunk, amelynek a módosítása egy újabb példánál már megoldható, akkor vissza kell lépnünk egy korábbi döntési ponthoz. A tanulás inkrementális: Vissza kell nyúlni az el z példákhoz 29 30 5

3. Legkisebb megkötés elv keresés Az adott pillanatig vizsgált példákkal konzisztens összes hipotézist nyilvántartjuk (Ezt hívjuk verziótérnek) A verziótér kezdetben a teljes hipotézistér, amelyb l fokozatosan töröljük a példáknak ellentmondó hipotéziseket. Megmutatható, hogy a verziótér mindig egyértelm en megadható, a leggyengébb konzisztens hipotézisek (G) és a legszigorúbb konzisztens hipotézisek (S) halmazával. Az összes többi konzisztens hipotézis e két halmaz között helyezkedik el. A tanító példák az S és a G távolságát csökkentik 31 Algoritmus Kezdetben S a hamis állításból, G az igaz állításból áll. Amíg egy hipotézis marad, vagy S illetve G üressé válik (nincs megoldás), vagy nincs több példa (ilyenkor vehetjük a verziótér hipotéziseinek diszjunkcióját.) addig minden új tanító példánál, ha az az S i -re cáfoló pozitív, akkor S i -t töröljük az S-b l. az S i -re cáfoló negatív, akkor S i -t helyettesítjük annak összes közvetlen általánosításával. az G i -re cáfoló negatív, akkor G i -t töröljük az G-b l. az G i -re cáfoló pozitív, akkor G i -t helyettesítjük annak összes közvetlen sz kítésével. 32 Kezdetben S={ hamis } és G={ igaz } Az 1.példa (I,N,N,I) pozitív S-beli hamis állításra ez a példa cáfoló negatív ezért S={ Más(x) Bár(x) P/SZ(x) Fogl(x) } A 2.példa (I,N,N,N) negatív, ami Egyszer sített étterem probléma (Más, Bár, P/SZ, Fogl) G-beli igaz állításra ez a példa cáfoló pozitív: G={ Más(x) Bár(x) P/SZ(x) Fogl(x) } Megjegyzés Egy hipotézis közvetlen általánosításakor (a pozitív) tanító-példa feltételrendszeréb l származó diszjunktív normálforma duális klózait (C 1 C n ) külön-külön hozzávagyoljuk a hipotézishez. S={, S i, } S={, S i C 1,, S i C n, } Egy hipotézis közvetlen sz kítésekor (a negatív) tanítópélda feltételrendszerének negáltjából származó konjunktív normálforma klózait (C 1 C n ) különkülön hozzáéseljük a hipotézishez. G={, G i, } G={, G i C 1,, G i C n, } 33 34 A 3.példa (N,I,N,N) pozitív, ami Egyszer sített étterem probléma (Más, Bár, P/SZ, Fogl) S-beli állításra ez a példa cáfoló negatív : S={ (Más(x) Bár(x) P/SZ(x) Fogl(x) ) ( Más(x) Bár(x) P/SZ(x) Fogl(x) ) } A 4.példa (I,N,I,I) pozitív, ami S-beli állításra ez a példa cáfoló negatív : S={(Más(x) Bár(x) P/SZ(x) Fogl(x) ) ( Más(x) Bár(x) P/SZ(x) Fogl(x) ) (Más(x) Bár(x) P/SZ(x) Fogl(x) ) } Egyszer sített étterem probléma (Más, Bár, P/SZ, Fogl) A 5.példa (I,N,I,I) negatív, ami S-beli állításra ez a példa cáfoló pozitív, ezért S = {} G={ Más(x) Bár(x) P/SZ(x) Fogl(x) } állításra hamis pozitív, de érdemes módosítani. Itt tehát nincs megoldás. (Az 5. példa ellentmondott a 4. példának) 35 36 6