Kvantumcsatorna tulajdonságai

Hasonló dokumentumok
Az információelmélet alapjai, biológiai alkalmazások. 1. A logaritmusfüggvény és azonosságai

Nagy Gábor compalg.inf.elte.hu/ nagy

Informatikai Rendszerek Alapjai

Kvantum-tömörítés II.

Zárthelyi dolgozat feladatainak megoldása õsz

Nagy Gábor compalg.inf.elte.hu/ nagy

H=0 H=1. Legyen m pozitív egészre {a 1, a 2,, a m } különböző üzenetek halmaza. Ha az a i üzenetet k i -szer fordul elő az adásban,

Az Informatika Elméleti Alapjai

A továbbiakban Y = {0, 1}, azaz minden szóhoz egy bináris sorozatot rendelünk

Kvantum-hibajavítás I.

Az Informatika Elméleti Alapjai

Az Informatika Elméleti Alapjai

Információelmélet. Nagy Szilvia augusztus 14.

Nagy Gábor compalg.inf.elte.hu/ nagy

Diszkrét matematika 2.C szakirány

Híradástechikai jelfeldolgozás

13. Egy x és egy y hosszúságú sorozat konvolúciójának hossza a. x-y-1 b. x-y c. x+y d. x+y+1 e. egyik sem

Alapfogalmak a Diszkrét matematika II. tárgyból

Kvantumkriptográfia II.

Diszkrét matematika 2.C szakirány

KÓDOLÁSTECHNIKA PZH december 18.

Nagy Gábor compalg.inf.elte.hu/ nagy

Az Informatika Elméleti Alapjai

1. feladatsor Komplex számok

Hibajavító kódolás (előadásvázlat, november 14.) Maróti Miklós

Diszkrét matematika gyakorlat 1. ZH október 10. α csoport

1. Házi feladat. Határidő: I. Legyen f : R R, f(x) = x 2, valamint. d : R + 0 R+ 0

Valószínűségszámítás összefoglaló

Számítógépes Hálózatok. 5. gyakorlat

Nagy Gábor compalg.inf.elte.hu/ nagy

[Biomatematika 2] Orvosi biometria

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Az informatika részterületei. Az információ. Dr. Bacsó Zsolt

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Nagy Gábor compalg.inf.elte.hu/ nagy ősz

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Kvantum összefonódás és erősen korrelált rendszerek

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

Mátrixok 2017 Mátrixok

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk

Fraktál alapú képtömörítés p. 1/26

Kvantum-hibajavítás III.

dolás, felbontható kód Prefix kód Blokk kódk Kódfa

1/1. Házi feladat. 1. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy

Biomatematika 2 Orvosi biometria

Dinamikus modellek szerkezete, SDG modellek

Információs rendszerek elméleti alapjai. Információelmélet

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

Saj at ert ek-probl em ak febru ar 26.

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.

Metrikus terek, többváltozós függvények

Algoritmuselmélet 6. előadás

Boros Zoltán február

Gazdasági matematika II. vizsgadolgozat, megoldással,

Összefonódottság detektálása tanúoperátorokkal

4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O

Hibajavító kódok május 31. Hibajavító kódok 1. 1

A sorozat fogalma. függvényeket sorozatoknak nevezzük. Amennyiben az értékkészlet. az értékkészlet a komplex számok halmaza, akkor komplex

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének.

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

A fontosabb definíciók

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Valószínűségi változók. Várható érték és szórás

Matematika elméleti összefoglaló

Informatikai Rendszerek Alapjai

Készítette: Fegyverneki Sándor

Diszkrét matematika 2.C szakirány

Leképezések. Leképezések tulajdonságai. Számosságok.

A maximum likelihood becslésről

Infokommuniká cio Forrá sko dolá s e s hibátu ro ko dolá s

Kódoláselmélet. (Humann kód, hibajavító kódok, véges testek konstrukciója. Reed-Solomon kód és dekódolása.)

Információ- és kódelmélet Fegyverneki, Sándor

Diszkrét Matematika. zöld könyv ): XIII. fejezet: 1583, 1587, 1588, 1590, Matematikai feladatgyűjtemény II. (

Készítette: Fegyverneki Sándor. Miskolci Egyetem, 2002.

A valószínűségszámítás elemei

Felügyelt önálló tanulás - Analízis III.

ANALÍZIS III. ELMÉLETI KÉRDÉSEK

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

2. gyakorlat Mintavételezés, kvantálás

A valószínűségszámítás elemei

Gazdasági matematika II. vizsgadolgozat megoldása, június 10

Gazdasági matematika II. vizsgadolgozat megoldása A csoport

Sorozatok, sorok, függvények határértéke és folytonossága Leindler Schipp - Analízis I. könyve + jegyzetek, kidolgozások alapján

Lin.Alg.Zh.1 feladatok

Elméleti összefoglaló a Valószín ségszámítás kurzushoz

Numerikus módszerek I. zárthelyi dolgozat (2017/18. I., A. csoport) Megoldások

Hibadetektáló és javító kódolások

VIK A2 Matematika - BOSCH, Hatvan, 3. Gyakorlati anyag. Mátrix rangja

VIK A1 Matematika BOSCH, Hatvan, 5. Gyakorlati anyag

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Vektorok, mátrixok, lineáris egyenletrendszerek

f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

Diszkrét matematika 2.

Kvantum-kommunikáció komplexitása I.

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28

Információelmélet. Kivonatos jegyzet. Veszprémi Egyetem, Műszaki Informatika Szak. Készítette:

Szinguláris értékek. Wettl Ferenc április 12. Wettl Ferenc Szinguláris értékek április / 35

ANALÍZIS III. ELMÉLETI KÉRDÉSEK

Principal Component Analysis

Átírás:

LOGO Kvantumcsatorna tulajdonságai Gyöngyösi László BME Villamosmérnöki és Informatikai Kar

Informáci cióelméleti leti alapok összefoglalásasa

Valószínűségszámítási alapok Egy A és egy B esemény szorzatán azt értjük, ha A és B is bekövetkezik. A és B együttes bekövetkezési valószínűsége: p(a B ). Egy A és egy B esemény összege az, ha vagy A, vagy B (vagy mindkettő) bekövetkezik. Valószínűsége: p(a+b ). Az A és B események függetlenek, ha semmiféle befolyással nincs A-nak a bekövetkezése a B bekövetkezésére. Ekkor p(a B )= p(a ) p(b ). Egyéb esetekben p(a B ) p(a) p(b ), csak azt lehet tudni, hogy p(a+b ) = p(a) + p(b) p(a B ), és p(a B ) p(a ) p(b ).

Valószínűségszámítási alapok Egy hírközlési csatorna bemenetén és kimenetén megjelenő jelek nem függetlenek egymástól. Ha B jelet vettünk akkor annak a valószínűsége, hogy A jel volt a csatorna bemenetén: A-nak B feltétel melletti feltételes valószínűsége ( ) p A B ( ) p A B ( ) p B Ha A jelet adok, milyen B kerül a csatorna kimenetére: B-nek A feltétel melletti feltételes valószínűségével, p( B A )-val írható le. A kölcsönös és feltételes valószínűségek között fennáll: = p(a B )=p(b ) p( A B )= p(a ) p( B A )

Az információ fogalma Az információ mértéke azonos azzal a bizonytalansággal, amelyet megszűntet. Hartley: m számú, azonos valószínűségű esemény közül egy megnevezésével nyert információ: I=log 2 m. (log 2 m kérdéssel azonosítható egy elem) Shannon: minél váratlanabb egy esemény, bekövetkezése annál több információt jelent. Legyen A={A 1, A 2, A m } eseményhalmaz, az A 1 esemény valószínűsége p 1, az A m -é p m. Ekkor az A i megnevezésekor nyert információ: 1 ( ) = = i 2 2 I A log log p. i p i Megjegyzés: ha p i =1/m, minden m-re, visszakapjuk Hartley definícióját.

Az információ fogalma Az információ tulajdonságai 1. Csak az esemény valószínűségének függvénye. 2. Nem negatív: I 0 3. Additív: ha m = m 1 m 2, I(m 1 m 2 ) = I(m 1 ) + I(m 2 ) 4. Monoton: ha p i p j, akkor I(A i ) I(A j ) 5. Normálás: legyen I(A)=1, ha p(a)=0,5. Ekkor kettes alapú logaritmus használandó és az információegysége a bit.

Az információ fogalma A forrásunk a következő üzenetet adta le: ccndnddnnncdnndncdncdncdncdnnnncdcdncdcnnncdcccdcd dcdccccnnn (21 db c, 22 db n, 17 db d ) Mekkora az információtartalma a c szimbólum kibocsátásának? p(c)=21/(21+22+17)=21/60=0,35 I(c) = log 2 0,35 = ln 0,35/ln 2 = 1,51 A forrásunk a,,,, szimbólumokat bocsátja ki p =0,12, p =0,37, p =0,06, p =0,21, p =0,24 valószínűséggel. Mi az információtartalma annak a közlésnek, hogy a jelet adta? I( ) = log 2 0,37 = ln 0,37/ln 2 = 1,43

Az entrópia fogalma Az entrópia az információ várható értéke: ( ) ( ) m H p, p,..., p = pi A = p log p 1 2 m i i i 2 i i= 1 i= 1 Az entrópia mértéke: Kijelentjük, hogy az m db egymást kizáró esemény közül az egyik bekövetkezett. A p log 2 p kifejezés p=0 esetén: ln p 1 ln p lim plog2 p = lim p = lim = p 0 p 0 0 1 ln2 ln2 p p 1 p 1 2 p m 1 = lim = 0. L Hospital- ln2 p 0 szabály szerint

Az entrópia fogalma Az entrópia tulajdonságai: 1. Nem negatív: H( p 1, p 2,,p m ) 0 2. Az események valószínűségeinek folytonos függvénye. 3. H( p 1, p 2,,p m, 0 ) = H( p 1, p 2,,p m ) 4. Ha p i = 1, a többi p k = 0, ( k=1,, i 1, i+1,, m ), akkor H( p 1, p 2,,p m ) =0. 5. H( p 1, p 2,,p m ) H( 1/m, 1/m, 1/m ) 6. H( p 1,, p k 1, p l, p k+1,, p l 1, p k, p l+1,,p m ) = = H( p 1, p 2,,p m ), k, l ; azaz az entrópia szimmetrikus változóinak cseréjére.

Az entrópia fogalma A forrásunk a következő üzenetet adta le: ccndnddnnncdnndncdncdncdncdnnnncdcdncdcnnncdcccdcddc dccccnnn (21 db c, 22 db n, 17 db d ) Mekkora az üzenet entrópiája? p(c)=21/60=0,35 p(n)=22/60=0,37 p(d)=17/60=0,28 Azaz 2 bit/szimbólum szükséges az üzenet átviteléhez. H(c) = 0,35 log 2 0,35 = 0,35 (ln 0,35/ln 2) = = 0,35 ( 1,51) = 0,53 H(n) = 0,37 log 2 0,37 = 0,37 (ln 0,37/ln 2) = = 0,37 ( 1,43) = 0,53 H(d) = 0,28 log 2 0,28 = 0,28 (ln 0,28/ln 2) = = 0,28 ( 1,84) = 0,51 ({ c,n,d} ) H = = 1,57

Az entrópia fogalma A forrásunk a,,,, szimbólumokat bocsátja ki p =0,12, p =0,37, p =0,06, p =0,21, p =0,24 valószínűséggel. Mennyi az entrópia? H(,,,, ) = 0,12 log 2 0,12 0,37 log 2 0,37 0,06 log 2 0,06 0,21 log 2 0,21 0,24 log 2 0,24 = 0,37+0,53+0,24+0,47+0,49 = 2,1

A kölcsönös entrópia Legyen A={A 1,, A m } a lehetséges leadott jelek halmaza, 1 B={B 1,, B } pedig a vehető jelek halmaza. m Vizsgáljuk azt az 2 összetett eseményt, hogy egy A-beli és egy B-beli esemény is bekövetkezik. A i és B j együttes bekövetkezési valószínűsége p i,j = p(a i B j ), a két esemény együttes bekövetkezésekor nyert információ I(A i B j )= log 2 p(a i B j )= log 2 p i,j. Mindig igaz a kölcsönös információra, hogy I(A i B j ) I(A i ), és I(A i B j ) I(B j ). A és B halmazok kölcsönös entrópiája: ( ) m 1 2 H A B p log p. m = i= 1 j= 1 i, j 2 i, j

A feltételes entrópia Legyen A={A 1,, A m } a lehetséges leadott jelek halmaza, 1 B={B 1,, B } pedig a vehető jelek halmaza. m Minden A-beli 2 esemény bekövetkezése maga után von egy B-beli eseményt. A i -nek B j -re vonatkoztatott feltételes valószínűsége p(a i B j ). Az A halmaz B halmazra vonatkoztatott feltételes entrópiája: m 2 1 ( ) ( ) ( ) log ( ) j i j 2 i j j= 1 i= 1 m m 2 1 j= 1 i= 1 m H A B = p B p A B p A B = ( ) ( ) = p A B log p A B. i j 2 i j Mivel p(a i B j )=p(b j ) p( A i B j ) minden i-re és j-re, H(A B )= H(B) H(A B )= H(A) H(B A ). Így: H(A) H(A B) 0

Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj tényleges forrás a mintavételezés kvantálás forráskódolás b Lehet folytonos jel A forrás jelét diszkrét jellé alakítja át és tömöríti

Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj Csatornakódolás hibajavító kódolás: lehetővé teszi a zajos csatornán való biztonságos(abb) üzenetátvitelt, a keletkező hibák jelzését kijavítását.

Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj c modulátor csatorna x demodulátor, döntő y Átalakítja a kódolt üzenetet a csatornán átvihető jellé. zaj torzul a jel Eldönti, hogy a lehetséges leadott jelalakok közül melyiket adhatták.

Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló vevő/nyelő zaj Kijavítja és/vagy jelzi a vett jelek hibáit. Elvégzi a csatornakódolás inverz műveletét.

Shannon hírközlési modellje A hírközlés során egy üzenetet juttatunk el egy térés időbeli pontból egy másikba. b c y z forrás/adó kódoló csatorna dekódoló zaj vevő/nyelő z a a forráskódolás inverze a helyreállított üzenetet kitömöríti vevő értelmezi az üzenetet

Forráskódolás A források kimenetén véges sok elemből álló A ={A 1,, A n } halmaz elemei jelenhetnek meg. Az A halmazt ekkor forrásábécének nevezzük. Az A elemeiből képezett véges A (1) A (2) A (3) A (m) sorozatok az üzenetek. (m tetszőleges természetes szám) A lehetséges üzenetek halmaza A. A kódolt üzenetek egy B ={B 1,, B s } szintén véges halmaz elemeiből épülnek fel, B a kódábécé. A B elemeiból álló véges hosszúságú B (1) B (2) B (3) B (m) sorozatok a kódszavak. A lehetséges kódszavak halmaza B.

Forráskódolás: egyértelműen dekódolható kódok Az f : A B, illetve F : A B függvényeket forráskódoknak nevezzük. Az f leképezés a forrás egy-egy szimbólumához rendel egy-egy kódszót, az F ennél általánosabb. Egy f forráskód egyértelműen dekódolható, ha minden egyes B-beli sorozatot csak egyféle A-beli sorozatból állít elő. (A neki megfeleltethető F invertálható. Az nem elég, hogy f invertálható.) Az állandó kódszóhosszú kódok egyértelműen dekódolhatók, megfejthetők, de nem elég gazdaságosak. Egy f betűnkénti kód prefix, ha a lehetséges kódszavak közül egyik sem áll elő egy másik folytatásaként. prefix posztfix a 0 0 0 b 10 01 01 c 110 011 011 d 1110 0111 1110

Források jellemzése, forrásentrópia Vizsgáljuk a forrás egymást követő N szimbólumkibocsátását: adott az A (1), A (2),, A (N) sorozat. A forrás emlékezet nélküli, ha A (i) független A (i 1) -től, i. A forrás stacioner, ha A (i) A i, és p( A (i) = A j ) = p j, i, j. Az A forrás forrásentrópiája: 1 H( A ) = lim H A, A,, A N N Nem azonos entrópiájával. n ( ) i log2 H A = p p i = 1 ( () 1 ( 2) ( N )) i -vel, a forrásábécé

Forráskódolás: a kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. ( ) i ( ) ( ) ( ) 1 2 i Az f A = B B B B-beli sorozat, azaz kódszó hossza l i. Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 0 1 0,42 β 01 2 0,34 γ 011 3 0,15 1,91 δ 0111 4 0,09

Forráskódolás: kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. Az () 1 ( 2) ( i ) B-beli sorozat, azaz kódszó hossza l i. ( ) f A = B B B i Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 011 3 0,42 β 0111 4 0,34 γ 0 1 0,15 2,95 δ 01 2 0,09

Forráskódolás: kódszavak átlagos hossza Az olyan f : A B kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. Az () 1 ( 2) ( i ) B-beli sorozat, azaz kódszó hossza l i. ( ) f A = B B B i Egy f kód átlagos szóhossza l i várható értéke: n ( ) = p( A ) L A = i = 1 n i = 1 p i i i i A i kódszó l i p i L(A) α 0111 3 0,42 β 011 4 0,34 γ 01 1 0,15 3,09 δ 0 2 0,09

Forráskódolás: Shannon első tétele Minden A={A 1, A 2,, A n } véges forrásábécéjű forráshoz található olyan s elemű kódábécével rendelkező f : A B kód, amely az egyes forrásszimbólumokhoz rendre l 1, l 2,, l n szóhosszúságú kódszavakat rendel, és log ( ) H A s 2 2 ( ) H A L( A) < + log s 1 Az olyan kódok, amelyekre ez teljesül: optimális kódok.

Forráskódolás A következőkben olyan forrásokkal fogunk foglalkozni, amelyek kimenetén véges sok elemből álló A ={A 1,, A n } halmaz elemei jelenhetnek meg. Az A halmazt ekkor forrásábécének nevezzük. Az A elemeiből képezett véges A (1) A (2) A (3) A (m) sorozatok az üzenetek. (m tetszőleges természetes szám) A lehetséges üzenetek halmaza A. A kódolt üzenetek egy B ={B 1,, B s } szintén véges halmaz elemeiből épülnek fel, B a kódábécé. A B elemeiból álló véges hosszúságú B (1) B (2) B (3) B (m) sorozatok a kódszavak. A lehetséges kódszavak halmaza B.

Egyértelműen dekódolható kódok Az f : A B, illetve F : A B függvényeket (forrás)kódoknak nevezzük. Az f leképezés a forrásábécé egy-egy betűjéhez rendel egy-egy kódszót. Egy f forráskód egyértelműen dekódolható, ha minden egyes B-beli sorozatot csak egyféle A-beli sorozatból állít elő. Az állandó kódszóhosszú kódok egyértelműen dekódolhatók, de nem elég gazdaságosak. Ha a gyakrabban előforduló A i kódábécébeli elemhez rövidebb kódszót rendelünk, mint a ritkább A j -hez, akkor már tömörítettük az üzenetet. Egy f betűnkénti kód prefix, ha a lehetséges kódszavak közül egyik sem áll elő egy másik folytatásaként.

A kódszavak hossza Az olyan kódokat, amelyek különböző A-beli szimbólumokhoz más és más hosszúságú kódszavakat rendelnek, változó szóhosszúságú kódoknak nevezzük. A kódszó hossza l i. A jó tömörítő eljárásokra igaz, hogy ha p i p j, akkor l i l i. Ha az f bináris kód prefix, akkor a leggyakoribb forrásábécébeli elemhez fog a legrövidebb kódszó tartozni, a második leggyakoribbhoz eggyel hosszabb kódszó, a két legritkábban előforduló betűhöz pedig azonosan hosszú kódszó fog tartozni, és csak az utolsó karakterben fog e két szó különbözni.

Kódsebesség (jelsebesség) Az információátvitel gyorsasága jellemezhető a R = H( K) n kódsebességgel, avagy jelsebességgel. (egy szimbólumra jutó átlagos információ)

Kódsebesség (jelsebesség) Legyen a kódszavak előfordulási valószínűsége azonos, 1/M. Az entrópia ekkor M ( ) 2 2 H K i = 1 a kódsebesség pedig 1 1 log log M, M M = = R = log 2 Ha a kódnak csak a legáltalánosabb paraméterei (szóhossz, betűszám) ismertek, ez jó felső becslés a jelsebességre. n M.

Shannon csatornakódol dolási tételet tele Ha egy C kapacitású diszkrét, memóriamentes csatornán R < C : akkor lehet olyan n kódszóhosszt találni, hogy a hibás dekódolás valószínűsége tetszőleges ε > 0 számnál kisebb legyen. Az n növelésével csökken ε minimuma, azaz csökken a hibás dekódolás valószínűsége. R > C : akkor nem lehet olyan n kódszóhosszt találni, hogy a hibás dekódolás valószínűsége tetszőlegesen kicsi legyen.

Shannon csatornakódolási tétele R>C esetén n növelésével a hibás dekódolás valószínűsége, is nő. 1 1 C R nr A tétel értelmében a jelsebességük kisebb, mint a csatornakapacitás. Azonban jó csatornakódok létrehozására nem ad módszert.

Kvantumállapotok átvitele

Kvantum forráskódolás Kódolás Küldendő üzenet: 10010111000101100 0000010010010 zaj Dekódolás Vett üzenet: 10010111000101100 0000010010010

tiszta állapotok Sűrűségmátrix Egy kvantumállapot annak sűrűségmátrixával írható le A sűrűségmátrix egy komplex négyzetes mátrix Minden sűrűségmátrixra igaz, hogy: * Hermitikus : ρ = ρ, Pozitív szemidefinit : ρ 0, Atraceértéke: Trρ = 1. A d-szintű sűrűségmátrix mérete: d x d. A sűrűségmátrix-al leírható kvantumállapot lehet tiszta vagy kevert Tiszta állapot Kevert állapot kevert állapotok rang( ρ ) = 1 ( ) 1 lineárisan független oszlop -> 1 bázis szerint megadható az állapot rang ρ 2 Legalább 2 lineárisan független oszlop -> legalább 2 bázis szükséges a leíráshoz

Kvantumállapotok sérülése A kvantumállapotok Bloch-gömbön is szemléltethetőek A tiszta állapotok a gömb felszínén, a kevert állapotok a gömb belsejében találhatóak A kvantumcsatornára bocsátott tiszta kvantumállapot sérülhet A sérülés következtében az tiszta állapotból kevert állapot lesz A csatorna torzító hatása következtében kialakult kvantumállapot az eredeti gömb belsejében lesz

Kvantumállapotok sérülése A kvantumcsatorna zajának hatására a gömb ellipszoiddá alakult Hogyan változik a kvantumcsatornán átvihető információ mennyisége a torzítás mellett?

Holevo-kapacitás A zajos kvantumcsatona kapacitása a Holevokapacitással adható meg A Holevo-kapacitás értelmében a kvantumcsatorna kapacitása az átvitel során torzult állapotot befoglaló legkisebb gömb sugarával adható meg A sugár tiszta kvantumállapotok esetén 1 Kevert állapotok esetén <1.

Hogyan határozhatjuk meg az ellipszoidot befoglaló legkisebb gömb sugarát? A meghatározáshoz legalább 4 pont szükséges Négy pont alapján megadható a rendelkezésre álló kvantumcsatorna kapacitása Az Euklideszi-térben az ellipszoidot befoglaló legkisebb gömb meghatározásához elég 2 pont Egy háromdimenziós gömb meghatározásához szükséges pontok száma legfeljebb 4 lehet

Kvantum forráskódolás Kvantumcsatorna

Tömörítés Forrás: egymástól független X üzenetek X 21 X n A bináris X üzenet: 0000100111010100010101100101 Nullák száma: np(x=0) Egyesek száma: np(x=1) {0,1} n : 2 n lehetséges sztring 2 nh(x) jellemző sztring Az n darab X egy ~nh(x) hosszúságú bináris üzenetté tömöríthető. Felhasználtuk, hogy:

Tömörítés (,, ) ( ) p X X p x 1 n x = 2 n x -nh ( x) = 2. ( ) np x ( ) logp( x) p x

Klasszikus információs entrópia H(X) H(X,Y) H(Y) X bizonytalansága ismert Y mellett H(X Y) = H(X,Y)-H(Y) = E Y H(X Y=y) H(X Y) I(X;Y) H(Y X) A bizonytalanságot csökkentő információ mértéke: I(X;Y) = H(X) H(X Y) = H(X)+H(Y)-H(X,Y)

Zajos csatorna A zajos kommunikáció modellje: m Kódolás Dekódolás m Shannon: A η zajos csatornán maximálisan átvihető információ mennyiségét a C(η) csatornakapacitás segítségével adhatjuk meg: C ( η ) = max ( ) ( ) I X; Y px

Kvantum-információelmélet A rendszert leíró ρ sűrűségmátrix: ρ = x p(x) φ x ihφ x. A rendszer Neumann entrópiája: H(ρ) = - tr [ρ log ρ]. A ρ sajátértékeinek Neumann entrópiája analóg a klasszikus Shannon entrópiával. Összetett kvantumrendszerek leírása: ρ AB sűrűségmátrix az A B rendszerállapotot adja meg, ahol H(A) ρ = H(ρ A ) = H( tr B ρ AB ) H(B) ρ = H(ρ B ) = H( tr A ρ AB ).

Kvantum-tömörítés Forrás: egymástól független ρ ΑΒ kvantumállapotok ρ ρ ρ A A A B B B Nem az állapotok előfordulási valószínűségei alapján tömörítünk. Statisztikai módszerek helyett kvantummechanikai eljárásokat alkalmazunk! B n lehetséges kvantumsztring dim(ρ B n ) ~ 2 nh(b) Az n darab B kvantumállapot tárolható ~nh(b) kvantumállapotban. A tömörítés során megtartható az A és B kvantumrendszer közti korreláció!

Kvantum információs entrópia A bizonytalansága, ha B ismert? H(A B)= H(AB)-H(B) H(A) ρ H(A B) ρ H(AB) ρ H(B) ρ H(B A) ρ Ψi AB = 0i A 0i B + 1i A 1i B Ψ B = I/2 H(A B) Ψ = 0 1 = -1 A feltételes entrópia negatív értéket is felvehet!

Kvantum információs entrópia Az összefonódott állapotok felhasználásával nullára csökkenthető az egyes kimeneti kvantumállapotok bizonytalansága. Így, ha Ψ AB állapot ismert, az A-val szembeni H(A B) = H(AB)-H(B) bizonytalanság mértéke -1. Mivel H(AB)=0, így I(A;B)= H(A)+H(B)-H(AB) 0.

Kvantum információs entrópia H(A) ρ H(AB) ρ H(B) ρ A bizonytalansága, ha B ismert? H(A B)= H(AB)-H(B) H(A B) ρ I(A;B) ρ H(B A) ρ A bizonytalanságot csökkentő információ mértéke: I(A;B) = H(A) H(A B) = H(A)+H(B)-H(AB) 0

Szubadditivitás felhasználása S(A,B) S(A)+S(B) ρ AB idő ρ U I(A;B) ρ σ I(A;B) σ I(A;B) ρ I(A;B) σ

Klasszikus kvantumállapotok küldése A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) m Kódolás (Ortogonális állapot) Dekódolás (Állapot bemérése) m A η zajos kvantumcsatornán maximálisan átvihető klasszikus információ mennyiségét a C(η) csatornakapacitás segítségével adhatjuk meg: C ( η ) = max ρ I( AB ; ), ahol p( x) x x η( σ ) ρ=. x A x B

Klasszikus kvantumállapotok küldése A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) m Kódolás (Ortogonális állapot) Dekódolás (Állapot bemérése) m ρ= x C( η ) m ρ I( AB) ( ) η( σ ). p x x x A x B = ax ; =? I( AB ; ) = H( B) H( BA) = H p( x) η( σ ) ( ) ( ( )) x p x H η σx. ρ ρ ρ x x

Klasszikus kvantumállapotok küldése Milyen hatékonysággal tömöríthetjük a klasszikus ortogonális kvantumállapotokat? 2 nh(b A) 2 nh(b) B n X 1,X 2,,X n 2 nh(b A) 2 nh(b A)

Szuperponált kvantumállapotok A zajos kvantumcsatorna modellje: (Trace-őrző, teljesen pozitív leképezés) d ψ ψ ' d Kódolás (TPCP leképezés) Dekódolás (TPCP leképezés) A η zajos kvantumcsatornán maximálisan (1/n log d kvantumállapottal) átvihető kvantuminformáció mennyiségét a Q(η) csatornakapacitás segítségével adhatjuk meg: Q ( η) = max ψ H( B A) AB ( I )( ) ψ = η ω AB A AB., ahol Feltételes entrópia!

Privát üzenetküldés Alice hogyan küldhet privát üzenetet Bobnak? x = x 1 x 2 x n p(y,z x) y= y 1 y 2 y n z = z 1 z 2 z n összes x üzenet I(X;Y) > I(X;Z) H(X)-H(X Y) > H(X)-H(X Z) halmaz mérete: 2 n(i(x;z)+ε) véletlenszerű 2 n(i(x;y)-ε) x A maximálisan átküldhető privát információ mértéke: I(X;Y)-I(X;Z)

Privát üzenetküldés Alice hogyan küldhet privát üzenetet Bobnak? φ U n x i A A ->BE ωi BE = U n φ x i I(X:A) > I(X:E) összes x üzenet H(X)-H(X A) > H(X)-H(X E) halmaz mérete: 2 n(i(x:e)+ε) véletlenszerű 2 n(i(x:a)-ε) x A maximálisan átküldhető privát információ mértéke: I(X:A)-I(X:E)

Privát üzenetküldés x p x 1/2 xi A φ x i A U A ->BE n x p x 1/2 xi A ω x i BE összes x üzenet halmaz mérete: 2 n(i(x:e)+ε) véletlenszerű 2 n(i(x:a)-ε) x A maximálisan átküldhető privát információ mértéke: I(X:A)-I(X:E)

Azonban ahol így I(X:A)-I(X:E) = H(A)-H(E) H(E) = H(AB), I(X:A)-I(X:E) = H(A)-H(AB) = -H(B A), mivel, H(A)+H(B A)=H(AB)