Prva Šenonova teorema

S Vikipedije, slobodne enciklopedije

Prva Šenonova teorema je uspostavlja granice moguće kompresije podataka, i daje praktično značenje Šenonove entropije. Ovu teoremu je 1948. dokazao Klod Elvud Šenon, i zaključio je da je nemoguće izvršiti kompresiju a da prosečan broj bita po simbolu bude manji od entopije izvora datih simbola, ili će doći do gubitka informacije. Međutim moguće je vršiti kompresiju gde će broj bita po simbolu biti približan entropiji izvora sa malo verovatnoćom gubitka informacije. Tačnije, ova teorema pokazuje da kodovanjem sekvenci sa izvora pomoću koda sa određenim alfabetom možemo sigurno dekodovanjem dobiti izvorne simbole.[1][2][3]

Diskretan izvor bez memorije[uredi | uredi izvor]

Diskretan izvor bez memorije (engl. discrete memoryless source - DMS) čiji izlaz je slučajna promjenjiva a, koja uzima realizacije iz konačnog alfabeta А=(а1, а2... ар) sa verovatnoćama P[i], i=1,2...n. Simboli se pojavljuju nekim slučajnim rasporedom, u konstantnim ili promenjivim vremenskim razmacima.

Kodovanje[uredi | uredi izvor]

Kod je prevođenje niza ulaznih simbola u niz izlaznih simbola. Kod je jednoznačno dekodabilan ukoliko ne postoje dve kodne reči konačne dužine koje čine istu sekvencu, blaži kriterijum je da ni jedna reč nije prefiks druge.

Pozitivan stav[uredi | uredi izvor]

Za DMS sa alfabetom A i entropijom Н(А)=Н za svako N iz skupa prirodnih brojeva postoji jednoznačno dekodabilan kod koji se sastoji od binarnih sekvenci dužine , a je vektor iz (n-torka iz A) Σ

gde suma ide po

Očekivana dužina kodnih reči. о(N) predstavlja član koji sa N raste sporije od linearno.

Negativan stav[uredi | uredi izvor]

Ne postoji slučaj da je

Dokaz[uredi | uredi izvor]

Pozitivan stav[uredi | uredi izvor]

Sve N-torke iz mogu se jednoznačno kodovati binatnim -torkama ukoliko je

odakle sledi da

Podelimo na podskupove i

kao u АЕР lemi svaki element iz možemo kodovati sa

gde prema АЕP to iznosi

da bi sigurno dobili prefiksan kod svakom elementu iz dodelimo 0, a elementu iz 1.

Prosečna dužina ovako dobijenog koda je:

pa dobijamo

i za e= dobijemo

pa je

o(N)

funkcija koja raste sporije nego linearno i sledi da je

Negativan stav[uredi | uredi izvor]

Definišimo raspodelu

i sledi

poznato je da

prema Kraft MakMilanovoj nejednakosti sledi

Reference[uredi | uredi izvor]

  1. ^ C.E. Shannon, "A Mathematical Theory of Communication Arhivirano na sajtu Wayback Machine (16. februar 2009)", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. ^ David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge. . Cambridge University Press. 2003. ISBN 978-0-521-64298-9. .
  3. ^ Cover 2006

Literatura[uredi | uredi izvor]

Spoljašnje veze[uredi | uredi izvor]