Entropija (teorija informacija)

S Vikipedije, slobodne enciklopedije
Dva bita entropije: U slučaju dva bacanja novčića, informaciona entropija u bitima je logaritam osnove-2 broja mogućih ishoda; sa dva novčića postoje četiri moguća ishoda, i dva bita entropije. Generalno, informaciona entropija je prosečna količina informacije prenesena događajem, imajući u vidu sve moguće ishode.

U teoriji informacije, entropija je mera neodređenosti pridružena slučajnoj promenljivoj. U ovom kontekstu, obično se misli na Šenonovu entropiju, koja kvantifikuje očekivanu vrednost informacije sadržane u poruci, obično u jedinicama kao što su biti. Ekvivalentno, Šenonova entropija je mera prosečnog informacionog sadržaja koji se propušta kada se ne zna vrednost slučajne promenljive. Koncept je uveo Klod Šenon u svom čuvenom radu iz 1948. godine „Matematička teorija komunikacija“.[1] Šenonova entropija predstavlja apsolutnu granicu najbolje moguće kompresije bez gubitaka bilo kakve komunikacije, pod izvesnim ograničenjima: ako tretiramo poruke da su kodovane kao niz nezavisnih slučajnih promenljivih sa istom raspodelom, prva Šenonova teorema pokazuje da, u graničnom slučaju, srednja dužina najkraće moguće reprezentacije za kodovanje poruka u datom alfabetu je njihova entropija podeljena sa logaritmom broja simbola u ciljnom alfabetu.

Jedno bacanje fer novčića nosi entropiju od jednog bita. Dva bacanja - dva bita. Brzina entropije za novčić je jedan bit po bacanju. Međutim, ako novčić nije fer, tada je neodređenost manja (ako bismo morali da se kladimo na ishod narednog pokušaja, verovatno ćemo se kladiti na češći rezultat), pa je i Šenonova entropija manja. Matematički, jedno bacanje novčića (fer ili ne) predstavlja Bernulijev eksperiment, a njegova entropija data je binarnom entropijskom funkcijom. Niz bacanja novčića sa dve glave imaće nultu entropiju, jer su ishodi potpuno predvidljivi. Brzina entropije teksta na engleskom je od 1 do 1,5 bita po slovu, odnosno od 0,6 do 1,3 bita po slovu, prema procenama baziranim na eksperimentima.[2][3]

Mera informacione entropije asocirane sa svakom mogućom vrednošću podataka je negativni logaritam funkcije verovatnoće mase vrednosti:

. [4]

Kada izvor podataka ima vrednost niže verovatnoće (tj., kad se javi događaj manje verovatnoće), događaj nosi više „informacija”, nego kad izvor podataka ima vrednost veće verovatnoće. Količina informacije presene svakim događajem na ovaj način postaje slučajna promenljiva čija očekivana vrednost je informaciona entropija. Generalno, entropija se odnosi na nered ili nesigurnost, i definicija entropije koja se koristi u informacionoj teoriji je direktno analogna definiciji korištenoj u statističkoj termodinamici.

Osnovni model sistema prenosa podataka se sastoji od tri elementa, izvora podataka, komunikacijskog kanala, i primaoca, i prema Šanonu „fundamentalni problem komunikacije” je za primaoca da može da identifikuje koji podaci su generisani u izvoru na bazi signala koji su primljeni kroz kanal.[5]:379–423 i 623–656 Entropija pruža apsolutni limit najkraće moguće prosečne dužine bezgubitačne kompresije kodiranja podataka proizvedenih u izvoru, i ako je entropija izvora manja od kanalnog kapaciteta komunikacionog kanala, podaci generisani u izvoru se mogu pozdano preneti do primaoca (bar u teoriji, eventualno zanemarujući neke praktične aspekte, kao što je složenost sistema potrebnog za prenos podataka i vremena koje može biti neophodno).

Informaciona entropija se tipično meri u bitovima (alternativno zvanim „šenoni”) ili ponekad u „prirodnim jedinicama” (natovi) ili decimalnim brojevima (zvanim „ditovi”, „banovi”, ili „hartliji”). Jedinica mera zavisi od baze logaritma koji se koristi za definisanje entropije.

Logaritam verovatnoće je koristan kao mera entropije jer je aditivan za nezavisne izvore. Na primer, entropija bacanja novčića je jedan bit, i entropija m bacanja je m bitova. U jednostavnom prikazu, log2(n) bitova je potrebno za prikazivanje promenljive koja može da poprimi n vrednosti, ako je n stepen od 2. Ako su te vrednosti jednako verovatne, entropija (u bitovima) je jednaka tom broju. Ako je jedna od vrednosti verovatnija od drugih, zapažanje da se ta vrednost javila je manje informativna nego da se neki manje zastupljeni ishod odvio. Konsekventno, ređi događaji pružaju više informacija kad su uočeni. Pošto se uočavanja manje verovatnih događaja dešavaju ređe, neto efekat je da je entropija (koja se smatra prosečnom informacijom) dobijena iz neuniformne distribucije podataka uvek manja ili jednaka od log2(n). Entropija je nula kad je izvesno da će se jedan ishod dogoditi. Entropija kvantifikuje ova razmatranja kada je poznata distribucija verovatnoće izvornih podataka. Smisao uočenog događaja (smisao poruke) nije važan u definiciji entropije. Entropija jedino uzima u obzir verovatnoću uočavanja specifičnog događaja, tako da informacija koju ona sadrži predstavlja informaciju o ishodišnoj distribuciji verovatnoće, a ne o značenju samih događaja.

Definicija[uredi | uredi izvor]

Šenon je definisao entropiju diskretnog izvora bez memorije (diskretne slučajne promenljive) nad konačnim alfabetom na sledeći način. Prvo se dodeli svakoj verovatnoći nekog događaja njena količina informacije . Tada je entropija po simbolu definisana kao očekivana vrednost (matematičko očekivanje) količine informacija

,

Neka je , tada je verovatnoća da se dogodi simbol iz alfabeta, ili ekvivalentno[6]:11[7]:19–20

,

Za graničnu vrednost se može pokazati da je nula. Prema tome, sabirci sa verovatnoćom jednakom nuli ne doprinose ukupnom zbiru (tj. entropiji).

Entropija za reči dužine je data sa

,

gde je verovatnoća da će se dogoditi reč . Entropija je tada granična vrednost:

.

Ako su simboli statistički nezavisni, tada za svako , kao i .

Elermanova definicija[uredi | uredi izvor]

Dejvid Elerman je želeo da objasni zašto uslovna entropija i druge funkcije imaju svojstva slična funkcijama u teoriji verovatnoće. On tvrdi da su prethodne definicije zasnovane na teoriji mera funkcionisale samo sa stepenom 2.[8]

Interpretacija[uredi | uredi izvor]

Entropija predstavlja meru prosečnog informacionog sadržaja po simbolu izvora koji predstavlja neki sistem ili informacionu sekvencu. U teoriji informacija, kao mera za količinu informacije u nekoj poruci može poslužiti koliko se promenila verovatnoća događaja pod uticajem te poruke. Na primer, ako za vreme leta vremenska prognoza za sutrašnji dan najavi 30° C, to nam neće doneti mnogo informacija, jer ne sadrži ništa neočekivano. Međutim, ako se ista takva prognoza dogodi zimi, to predstavlja potpuno neočekivanu vest i samim tim sadrži mnogo informacija. Pod informacijom se može smatrati i mera uklonjene nesigurnosti. Što se više simbola primi od izvora, dobijamo više informacija i opada nesigurnost oko onoga šta je moglo biti poslato.

Definicija informacionog sadržaja se može na sledeći način opisati: ako se desi događaj čija je verovatnoća , tada je kroz to izabran jedan konkretan događaj iz hipotetičkog skupa od jednako verovatnih događaja. Da bi se ovi događaji međusobno razlikovali, potrebno im je dodeliti bita. Ova vrednost predstavlja količinu informacije jednog određenog događaja u bitima. Kada se količina informacije svakog događaja ponderiše sa verovatnoćom istog događaja, i kada se saberu (tj. pronađe se matematičko očekivanje količine informacije), dobijamo srednju ili očekivanu količinu informacije po simbolu.

Jedinica Šenon definiše količinu informacije koju sadrži poruka o događaju sa verovatnoćom . Na primer, saopštenje o tome da je metalni novčić pao na određenu stranu donosi informaciju od 1 Šenona. Ili, ako na prijemnoj strani binarnog telekomunikacionog sistema, čiji je signal sastavljen od bipolarnih impulsa konstantne amplitude, merimo polarnost dolazećih impulsa, i ako je verovatnoća pojavljivanja pozitivnih i negativnih amplituda jednaka, onda svaki impuls nosi informaciju od 1 Šenona. Međutim, ako verovatnoće pojavljivanja pozitivnih i negativnih amplituda nisu jednake, onda jedan impuls donosi prijemniku neku drugu količinu informacija koja nije 1 Šenon. Treba razlikovati pojam binarni digit, skraćeno bit, od pojma Šenon. Bit je samo nosilac informacije i fizički je predstavljen impulsom koji može da ima dva stanja. U zavisnosti od verovatnoće pojavljivanja stanja, bit može da donosi prijemniku veću ili manju količinu informacija. Samo kad su verovatnoće pojavljivanja dva stanja kod bita jednake, onda bit nosi količinu informacije od 1 Šenona.[9]

Vidi još[uredi | uredi izvor]

Reference[uredi | uredi izvor]

  1. ^ Shannon, Claude E. (1948). „A Mathematical Theory of Communication”. Bell System Technical Journal. 27 (3): 379—423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2.  (PDF, archived from here)
  2. ^ Schneier, B: Applied Cryptography, Second edition, page 234. John Wiley and Sons.
  3. ^ Shannon, Claude E.: Prediction and entropy of printed English, The Bell System Technical Journal, 30:50-64, January 1951.
  4. ^ Pathria 2011, str. 51
  5. ^ Shannon, Claude E. (1948). „A Mathematical Theory of Communication” (PDF). Bell System Technical Journal. 27. , July and October
  6. ^ Borda, Monica (2011). Fundamentals in Information Theory and Coding. Springer. ISBN 978-3-642-20346-6. 
  7. ^ Han, Te Sun; Kobayashi, Kingo (2002). Mathematics of Information and Coding. American Mathematical Society. ISBN 978-0-8218-4256-0. 
  8. ^ Ellerman, David (oktobar 2017). „Logical Information Theory: New Logical Foundations for Information Theory” (PDF). Logic Journal of the IGPL. 25 (5): 806—835. doi:10.1093/jigpal/jzx022. Pristupljeno 2. 11. 2022. 
  9. ^ Lukatela, G: Statistička teorija telekomunikacija i teorija informacija, pp. 258-259. Građevinska knjiga, Beograd, 1981.

Literatura[uredi | uredi izvor]

Spoljašnje veze[uredi | uredi izvor]