LOGO Kvantumcsatorna tulajdonságai Gyöngyösi László BME Villamosmérnöki és Informatikai Kar
Informáci cióelméleti leti alapok összefoglalásasa
Valószínűségszámítási alapok Egy A és egy B esemény szorzatán azt értjük, ha A és B is bekövetkezik. A és B együttes bekövetkezési valószínűsége: p(a B ). Egy A és egy B esemény összege az, ha vagy A, vagy B (vagy mindkettő) bekövetkezik. Valószínűsége: p(a+b ). Az A és B események függetlenek, ha semmiféle befolyással nincs A-nak a bekövetkezése a B bekövetkezésére. Ekkor p(a B )= p(a ) p(b ). Egyéb esetekben p(a B ) p(a) p(b ), csak azt lehet tudni, hogy p(a+b ) = p(a) + p(b) p(a B ), és p(a B ) p(a ) p(b ).
Valószínűségszámítási alapok Egy hírközlési csatorna bemenetén és kimenetén megjelenő jelek nem függetlenek egymástól. Ha B jelet vettünk akkor annak a valószínűsége, hogy A jel volt a csatorna bemenetén: A-nak B feltétel melletti feltételes valószínűsége ( ) p A B ( ) p A B ( ) p B Ha A jelet adok, milyen B kerül a csatorna kimenetére: B-nek A feltétel melletti feltételes valószínűségével, p( B A )-val írható le. A kölcsönös és feltételes valószínűségek között fennáll: = p(a B )=p(b ) p( A B )= p(a ) p( B A )
Az információ fogalma Az információ mértéke azonos azzal a bizonytalansággal, amelyet megszűntet. Hartley: m számú, azonos valószínűségű esemény közül egy megnevezésével nyert információ: I=log 2 m. (log 2 m kérdéssel azonosítható egy elem) Shannon: minél váratlanabb egy esemény, bekövetkezése annál több információt jelent. Legyen A={A 1, A 2, A m } eseményhalmaz, az A 1 esemény valószínűsége p 1, az A m -é p m. Ekkor az A i megnevezésekor nyert információ: 1 ( ) = = i 2 2 I A log log p. i p i Megjegyzés: ha p i =1/m, minden m-re, visszakapjuk Hartley definícióját.
Az információ fogalma Az információ tulajdonságai 1. Csak az esemény valószínűségének függvénye. 2. Nem negatív: I 0 3. Additív: ha m = m 1 m 2, I(m 1 m 2 ) = I(m 1 ) + I(m 2 ) 4. Monoton: ha p i p j, akkor I(A i ) I(A j ) 5. Normálás: legyen I(A)=1, ha p(a)=0,5. Ekkor kettes alapú logaritmus használandó és az információegysége a bit.
Az információ fogalma A forrásunk a következő üzenetet adta le: ccndnddnnncdnndncdncdncdncdnnnncdcdncdcnnncdcccdcd dcdccccnnn (21 db c, 22 db n, 17 db d ) Mekkora az információtartalma a c szimbólum kibocsátásának? p(c)=21/(21+22+17)=21/60=0,35 I(c) = log 2 0,35 = ln 0,35/ln 2 = 1,51 A forrásunk a,,,, szimbólumokat bocsátja ki p =0,12, p =0,37, p =0,06, p =0,21, p =0,24 valószínűséggel. Mi az információtartalma annak a közlésnek, hogy a jelet adta? I( ) = log 2 0,37 = ln 0,37/ln 2 = 1,43
Az entrópia fogalma Az entrópia az információ várható értéke: ( ) ( ) m H p, p,..., p = pi A = p log p 1 2 m i i i 2 i i= 1 i= 1 Az entrópia mértéke: Kijelentjük, hogy az m db egymást kizáró esemény közül az egyik bekövetkezett. A p log 2 p kifejezés p=0 esetén: ln p 1 ln p lim plog2 p = lim p = lim = p 0 p 0 0 1 ln2 ln2 p p 1 p 1 2 p m 1 = lim = 0. L Hospital- ln2 p 0 szabály szerint
Az entrópia fogalma Az entrópia tulajdonságai: 1. Nem negatív: H( p 1, p 2,,p m ) 0 2. Az események valószínűségeinek folytonos függvénye. 3. H( p 1, p 2,,p m, 0 ) = H( p 1, p 2,,p m ) 4. Ha p i = 1, a többi p k = 0, ( k=1,, i 1, i+1,, m ), akkor H( p 1, p 2,,p m ) =0. 5. H( p 1, p 2,,p m ) H( 1/m, 1/m, 1/m ) 6. H( p 1,, p k 1, p l, p k+1,, p l 1, p k, p l+1,,p m ) = = H( p 1, p 2,,p m ), k, l ; azaz az entrópia szimmetrikus változóinak cseréjére.
Az entrópia fogalma A forrásunk a következő üzenetet adta le: ccndnddnnncdnndncdncdncdncdnnnncdcdncdcnnncdcccdcddc dccccnnn (21 db c, 22 db n, 17 db d ) Mekkora az üzenet entrópiája? p(c)=21/60=0,35 p(n)=22/60=0,37 p(d)=17/60=0,28 Azaz 2 bit/szimbólum szükséges az üzenet átviteléhez. H(c) = 0,35 log 2 0,35 = 0,35 (ln 0,35/ln 2) = = 0,35 ( 1,51) = 0,53 H(n) = 0,37 log 2 0,37 = 0,37 (ln 0,37/ln 2) = = 0,37 ( 1,43) = 0,53 H(d) = 0,28 log 2 0,28 = 0,28 (ln 0,28/ln 2) = = 0,28 ( 1,84) = 0,51 ({ c,n,d} ) H = = 1,57
Az entrópia fogalma A forrásunk a,,,, szimbólumokat bocsátja ki p =0,12, p =0,37, p =0,06, p =0,21, p =0,24 valószínűséggel. Mennyi az entrópia? H(,,,, ) = 0,12 log 2 0,12 0,37 log 2 0,37 0,06 log 2 0,06 0,21 log 2 0,21 0,24 log 2 0,24 = 0,37+0,53+0,24+0,47+0,49 = 2,1
A kölcsönös entrópia Legyen A={A 1,, A m } a lehetséges leadott jelek halmaza, 1 B={B 1,, B } pedig a vehető jelek halmaza. m Vizsgáljuk azt az 2 összetett eseményt, hogy egy A-beli és egy B-beli esemény is bekövetkezik. A i és B j együttes bekövetkezési valószínűsége p i,j = p(a i B j ), a két esemény együttes bekövetkezésekor nyert információ I(A i B j )= log 2 p(a i B j )= log 2 p i,j. Mindig igaz a kölcsönös információra, hogy I(A i B j ) I(A i ), és I(A i B j ) I(B j ). A és B halmazok kölcsönös entrópiája: ( ) m 1 2 H A B p log p. m = i= 1 j= 1 i, j 2 i, j
A feltételes entrópia Legyen A={A 1,, A m } a lehetséges leadott jelek halmaza, 1 B={B 1,, B } pedig a vehető jelek halmaza. m Minden A-beli 2 esemény bekövetkezése maga után von egy B-beli eseményt. A i -nek B j -re vonatkoztatott feltételes valószínűsége p(a i B j ). Az A halmaz B halmazra vonatkoztatott feltételes entrópiája: m 2 1 ( ) ( ) ( ) log ( ) j i j 2 i j j= 1 i= 1 m m 2 1 j= 1 i= 1 m H A B = p B p A B p A B = ( ) ( ) = p A B log p A B. i j 2 i j Mivel p(a i B j )=p(b j ) p( A i B j ) minden i-re és j-re, H(A B )= H(B) H(A B )= H(A) H(B A ). Így: H(A) H(A B) 0
Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj tényleges forrás a mintavételezés kvantálás forráskódolás b Lehet folytonos jel A forrás jelét diszkrét jellé alakítja át és tömöríti
Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj Csatornakódolás hibajavító kódolás: lehetővé teszi a zajos csatornán való biztonságos(abb) üzenetátvitelt, a keletkező hibák jelzését kijavítását.
Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj c modulátor csatorna x demodulátor, döntő y Átalakítja a kódolt üzenetet a csatornán átvihető jellé. zaj torzul a jel Eldönti, hogy a lehetséges leadott jelalakok közül melyiket adhatták.
Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj Kijavítja és/vagy jelzi a vett jelek hibáit. Elvégzi a csatornakódolás inverz műveletét.
Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló zaj vevő/nyelő z a a forráskódolás inverze a helyreállított üzenetet kitömöríti vevő értelmezi az üzenetet
Forráskódolás A források kimenetén véges sok elemből álló A ={A 1,, A n } halmaz elemei jelenhetnek meg. Az A halmazt ekkor forrásábécének nevezzük. Az A elemeiből képezett véges A (1) A (2) A (3) A (m) sorozatok az üzenetek. (m tetszőleges természetes szám) A lehetséges üzenetek halmaza A. A kódolt üzenetek egy B ={B 1,, B s } szintén véges halmaz elemeiből épülnek fel, B a kódábécé. A B elemeiból álló véges hosszúságú B (1) B (2) B (3) B (m) sorozatok a kódszavak. A lehetséges kódszavak halmaza B.
Forráskódolás: egyértelműen dekódolható kódok Az f : A B, illetve F : A B függvényeket forráskódoknak nevezzük. Az f leképezés a forrás egy-egy szimbólumához rendel egy-egy kódszót, az F ennél általánosabb. Egy f forráskód egyértelműen dekódolható, ha minden egyes B-beli sorozatot csak egyféle A-beli sorozatból állít elő. (A neki megfeleltethető F invertálható. Az nem elég, hogy f invertálható.) Az állandó kódszóhosszú kódok egyértelműen dekódolhatók, megfejthetők, de nem elég gazdaságosak. Egy f betűnkénti kód prefix, ha a lehetséges kódszavak közül egyik sem áll elő egy másik folytatásaként. prefix posztfix a 0 0 0 b 10 01 01 c 110 011 011 d 1110 0111 1110
Források jellemzése, forrásentrópia Vizsgáljuk a forrás egymást követő N szimbólumkibocsátását: adott az A (1), A (2),, A (N) sorozat. A forrás emlékezet nélküli, ha A (i) független A (i 1) -től, i. A forrás stacioner, ha A (i) A i, és p( A (i) = A j ) = p j, i, j. Az A forrás forrásentrópiája: 1 H( A ) = lim H A, A,, A N N Nem azonos entrópiájával. n ( ) i log2 H A = p p i = 1 ( () 1 ( 2) ( N )) i -vel, a forrásábécé
Forráskódolás: a kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. ( ) i ( ) ( ) ( ) 1 2 i Az f A = B B B B-beli sorozat, azaz kódszó hossza l i. Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 0 1 0,42 β 01 2 0,34 γ 011 3 0,15 1,91 δ 0111 4 0,09
Forráskódolás: kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. Az () 1 ( 2) ( i ) B-beli sorozat, azaz kódszó hossza l i. ( ) f A = B B B i Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 011 3 0,42 β 0111 4 0,34 γ 0 1 0,15 2,95 δ 01 2 0,09
Forráskódolás: kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. Az () 1 ( 2) ( i ) B-beli sorozat, azaz kódszó hossza l i. ( ) f A = B B B i Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 0111 3 0,42 β 011 4 0,34 γ 01 1 0,15 3,09 δ 0 2 0,09
Forráskódolás: Shannon első tétele Minden A={A 1, A 2,, A n } véges forrásábécéjű forráshoz található olyan s elemű kódábécével rendelkező f : A B kód, amely az egyes forrásszimbólumokhoz rendre l 1, l 2,, l n szóhosszúságú kódszavakat rendel, és log ( ) H A s 2 2 ( ) H A L( A) < + log s 1 Az olyan kódok, amelyekre ez teljesül: optimális kódok.
Forráskódolás A következőkben olyan forrásokkal fogunk foglalkozni, amelyek kimenetén véges sok elemből álló A ={A 1,, A n } halmaz elemei jelenhetnek meg. Az A halmazt ekkor forrásábécének nevezzük. Az A elemeiből képezett véges A (1) A (2) A (3) A (m) sorozatok az üzenetek. (m tetszőleges természetes szám) A lehetséges üzenetek halmaza A. A kódolt üzenetek egy B ={B 1,, B s } szintén véges halmaz elemeiből épülnek fel, B a kódábécé. A B elemeiból álló véges hosszúságú B (1) B (2) B (3) B (m) sorozatok a kódszavak. A lehetséges kódszavak halmaza B.
Egyértelműen dekódolható kódok Az f : A B, illetve F : A B függvényeket (forrás)kódoknak nevezzük. Az f leképezés a forrásábécé egy-egy betűjéhez rendel egy-egy kódszót. Egy f forráskód egyértelműen dekódolható, ha minden egyes B-beli sorozatot csak egyféle A-beli sorozatból állít elő. Az állandó kódszóhosszú kódok egyértelműen dekódolhatók, de nem elég gazdaságosak. Ha a gyakrabban előforduló A i kódábécébeli elemhez rövidebb kódszót rendelünk, mint a ritkább A j -hez, akkor már tömörítettük az üzenetet. Egy f betűnkénti kód prefix, ha a lehetséges kódszavak közül egyik sem áll elő egy másik folytatásaként.
A kódszavak hossza Az olyan kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. A kódszó hossza l i. A jó tömörítő eljárásokra igaz, hogy ha p i p j, akkor l i l i. Ha az f bináris kód prefix, akkor a leggyakoribb forrásábécébeli elemhez fog a legrövidebb kódszó tartozni, a második leggyakoribbhoz eggyel hosszabb kódszó, a két legritkábban előforduló betűhöz pedig azonosan hosszú kódszó fog tartozni, és csak az utolsó karakterben fog e két szó különbözni.
Kódsebesség (jelsebesség) Az információátvitel gyorsasága jellemezhető a R = H( K) n kódsebességgel, avagy jelsebességgel. (egy szimbólumra jutó átlagos információ)
Kódsebesség (jelsebesség) Legyen a kódszavak előfordulási valószínűsége azonos, 1/M. Az entrópia ekkor M ( ) 2 2 H K i = 1 a kódsebesség pedig 1 1 log log M, M M = = R = log 2 Ha a kódnak csak a legáltalánosabb paraméterei (szóhossz, betűszám) ismertek, ez jó felső becslés a jelsebességre. n M.
Shannon csatornakódol dolási tételet tele Ha egy C kapacitású diszkrét, memóriamentes csatornán R < C : akkor lehet olyan n kódszóhosszt találni, hogy a hibás dekódolás valószínűsége tetszőleges ε > 0 számnál kisebb legyen. Az n növelésével csökken ε minimuma, azaz csökken a hibás dekódolás valószínűsége. R > C : akkor nem lehet olyan n kódszóhosszt találni, hogy a hibás dekódolás valószínűsége tetszőlegesen kicsi legyen.
Shannon csatornakódolási tétele R>C esetén n növelésével a hibás dekódolás valószínűsége, is nő. 1 1 C R nr A tétel értelmében a jelsebességük kisebb, mint a csatornakapacitás. Azonban jó csatornakódok létrehozására nem ad módszert.
Kvantumállapotok átvitele
Kvantum forráskódolás Kódolás Küldendő üzenet: 10010111000101100 0000010010010 zaj Dekódolás Vett üzenet: 10010111000101100 0000010010010
tiszta állapotok Sűrűségmátrix Egy kvantumállapot annak sűrűségmátrixával írható le A sűrűségmátrix egy komplex négyzetes mátrix Minden sűrűségmátrixra igaz, hogy: * Hermitikus : ρ = ρ, Pozitív szemidefinit : ρ 0, Atraceértéke: Trρ = 1. A d-szintű sűrűségmátrix mérete: d x d. A sűrűségmátrix-al leírható kvantumállapot lehet tiszta vagy kevert Tiszta állapot Kevert állapot kevert állapotok rang( ρ ) = 1 ( ) 1 lineárisan független oszlop -> 1 bázis szerint megadható az állapot rang ρ 2 Legalább 2 lineárisan független oszlop -> legalább 2 bázis szükséges a leíráshoz
Kvantumállapotok sérülése A kvantumállapotok Bloch-gömbön is szemléltethetőek A tiszta állapotok a gömb felszínén, a kevert állapotok a gömb belsejében találhatóak A kvantumcsatornára bocsátott tiszta kvantumállapot sérülhet A sérülés következtében az tiszta állapotból kevert állapot lesz A csatorna torzító hatása következtében kialakult kvantumállapot az eredeti gömb belsejében lesz
Kvantumállapotok sérülése A kvantumcsatorna zajának hatására a gömb ellipszoiddá alakult Hogyan változik a kvantumcsatornán átvihető információ mennyisége a torzítás mellett?
Holevo-kapacitás A zajos kvantumcsatona kapacitása a Holevokapacitással adható meg A Holevo-kapacitás értelmében a kvantumcsatorna kapacitása az átvitel során torzult állapotot befoglaló legkisebb gömb sugarával adható meg A sugár tiszta kvantumállapotok esetén 1 Kevert állapotok esetén <1.
Hogyan határozhatjuk meg az ellipszoidot befoglaló legkisebb gömb sugarát? A meghatározáshoz legalább 4 pont szükséges Négy pont alapján megadható a rendelkezésre álló kvantumcsatorna kapacitása Az Euklideszi-térben az ellipszoidot befoglaló legkisebb gömb meghatározásához elég 2 pont Egy háromdimenziós gömb meghatározásához szükséges pontok száma legfeljebb 4 lehet
Kvantum forráskódolás Kvantumcsatorna
Tömörítés Forrás: egymástól független X üzenetek X 21 X n A bináris X üzenet: 0000100111010100010101100101 Nullák száma: np(x=0) Egyesek száma: np(x=1) {0,1} n : 2 n lehetséges sztring 2 nh(x) jellemző sztring Az n darab X egy ~nh(x) hosszúságú bináris üzenetté tömöríthető. Felhasználtuk, hogy:
Tömörítés (,, ) ( ) p X X p x 1 n x = 2 n x -nh ( x) = 2. ( ) np x ( ) logp( x) p x
Klasszikus információs entrópia H(X) H(X,Y) H(Y) X bizonytalansága ismert Y mellett H(X Y) = H(X,Y)-H(Y) = E Y H(X Y=y) H(X Y) I(X;Y) H(Y X) A bizonytalanságot csökkentő információ mértéke: I(X;Y) = H(X) H(X Y) = H(X)+H(Y)-H(X,Y)
Zajos csatorna A zajos kommunikáció modellje: m Kódolás Dekódolás m Shannon: A η zajos csatornán maximálisan átvihető információ mennyiségét a C(η) csatornakapacitás segítségével adhatjuk meg: C ( η ) = max ( ) ( ) I X; Y px
Kvantum-információelmélet A rendszert leíró ρ sűrűségmátrix: ρ = x p(x) φ x ihφ x. A rendszer Neumann entrópiája: H(ρ) = - tr [ρ log ρ]. A ρ sajátértékeinek Neumann entrópiája analóg a klasszikus Shannon entrópiával. Összetett kvantumrendszerek leírása: ρ AB sűrűségmátrix az A B rendszerállapotot adja meg, ahol H(A) ρ = H(ρ A ) = H( tr B ρ AB ) H(B) ρ = H(ρ B ) = H( tr A ρ AB ).
Kvantum-tömörítés Forrás: egymástól független ρ ΑΒ kvantumállapotok ρ ρ ρ A A A B B B Nem az állapotok előfordulási valószínűségei alapján tömörítünk. Statisztikai módszerek helyett kvantummechanikai eljárásokat alkalmazunk! B n lehetséges kvantumsztring dim(ρ B n ) ~ 2 nh(b) Az n darab B kvantumállapot tárolható ~nh(b) kvantumállapotban. A tömörítés során megtartható az A és B kvantumrendszer közti korreláció!
Kvantum információs entrópia A bizonytalansága, ha B ismert? H(A B)= H(AB)-H(B) H(A) ρ H(A B) ρ H(AB) ρ H(B) ρ H(B A) ρ Ψi AB = 0i A 0i B + 1i A 1i B Ψ B = I/2 H(A B) Ψ = 0 1 = -1 A feltételes entrópia negatív értéket is felvehet!
Kvantum információs entrópia Az összefonódott állapotok felhasználásával nullára csökkenthető az egyes kimeneti kvantumállapotok bizonytalansága. Így, ha Ψ AB állapot ismert, az A-val szembeni H(A B) = H(AB)-H(B) bizonytalanság mértéke -1. Mivel H(AB)=0, így I(A;B)= H(A)+H(B)-H(AB) 0.
Kvantum információs entrópia H(A) ρ H(AB) ρ H(B) ρ A bizonytalansága, ha B ismert? H(A B)= H(AB)-H(B) H(A B) ρ I(A;B) ρ H(B A) ρ A bizonytalanságot csökkentő információ mértéke: I(A;B) = H(A) H(A B) = H(A)+H(B)-H(AB) 0
Szubadditivitás felhasználása S(A,B) S(A)+S(B) ρ AB idő ρ U I(A;B) ρ σ I(A;B) σ I(A;B) ρ I(A;B) σ
Klasszikus kvantumállapotok küldése A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) m Kódolás (Ortogonális állapot) Dekódolás (Állapot bemérése) m A η zajos kvantumcsatornán maximálisan átvihető klasszikus információ mennyiségét a C(η) csatornakapacitás segítségével adhatjuk meg: C ( η ) = max ρ I( AB ; ), ahol p( x) x x η( σ ) ρ=. x A x B
Klasszikus kvantumállapotok küldése A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) m Kódolás (Ortogonális állapot) Dekódolás (Állapot bemérése) m ρ= x C( η ) m ρ I( AB) ( ) η( σ ). p x x x A x B = ax ; =? I( AB ; ) = H( B) H( BA) = H p( x) η( σ ) ( ) ( ( )) x p x H η σx. ρ ρ ρ x x
Klasszikus kvantumállapotok küldése Milyen hatékonysággal tömöríthetjük a klasszikus ortogonális kvantumállapotokat? 2 nh(b A) 2 nh(b) B n X 1,X 2,,X n 2 nh(b A) 2 nh(b A)
Szuperponált kvantumállapotok A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) d ψ ψ ' d Kódolás (TPCP leképezés) Dekódolás (TPCP leképezés) A η zajos kvantumcsatornán maximálisan (1/n log d kvantumállapottal) átvihető kvantuminformáció mennyiségét a Q(η) csatornakapacitás segítségével adhatjuk meg: Q ( η) = max ψ H( B A) AB ( I )( ) ψ = η ω AB A AB., ahol Feltételes entrópia!
Privát üzenetküldés Alice hogyan küldhet privát üzenetet Bobnak? x = x 1 x 2 x n p(y,z x) y= y 1 y 2 y n z = z 1 z 2 z n összes x üzenet I(X;Y) > I(X;Z) H(X)-H(X Y) > H(X)-H(X Z) halmaz mérete: 2 n(i(x;z)+ε) véletlenszerű 2 n(i(x;y)-ε) x A maximálisan átküldhető privát információ mértéke: I(X;Y)-I(X;Z)
Privát üzenetküldés Alice hogyan küldhet privát üzenetet Bobnak? φ U n x i A A ->BE ωi BE = U n φ x i I(X:A) > I(X:E) összes x üzenet H(X)-H(X A) > H(X)-H(X E) halmaz mérete: 2 n(i(x:e)+ε) véletlenszerű 2 n(i(x:a)-ε) x A maximálisan átküldhető privát információ mértéke: I(X:A)-I(X:E)
Privát üzenetküldés x p x 1/2 xi A φ x i A U A ->BE n x p x 1/2 xi A ω x i BE összes x üzenet halmaz mérete: 2 n(i(x:e)+ε) véletlenszerű 2 n(i(x:a)-ε) x A maximálisan átküldhető privát információ mértéke: I(X:A)-I(X:E)
Azonban ahol így I(X:A)-I(X:E) = H(A)-H(E) H(E) = H(AB), I(X:A)-I(X:E) = H(A)-H(AB) = -H(B A), mivel, H(A)+H(B A)=H(AB)