Пређи на садржај

Ентропија (теорија информација) — разлика између измена

С Википедије, слободне енциклопедије
Садржај обрисан Садржај додат
Нема описа измене
.
Ред 1: Ред 1:
[[File:Entropy flip 2 coins.jpg|thumb|300px|Two bits of entropy: In the case of two fair coin tosses, the information entropy in bits is the base-2 logarithm of the number of possible outcomes; with two coins there are four possible outcomes, and two bits of entropy. Generally, information entropy is the average amount of information conveyed by an event, when considering all possible outcomes.]]
{{рут}}
У теорији информације, [[ентропија]] је мера неодређености придружена [[Случајна променљива|случајној променљивој]]. У овом контексту, обично се мисли на Шенонову ентропију, која квантификује очекивану вредност информације садржане у поруци, обично у јединицама као што су бити. Еквивалентно, Шенонова ентропија је мера просечног информационог садржаја који се пропушта када се не зна вредност случајне променљиве. Концепт је увео [[Klod Elvud Šenon|Клод Шенон]] у свом чувеном раду из [[1948]]. године „Математичка теорија комуникација“.
У теорији информације, [[ентропија]] је мера неодређености придружена [[Случајна променљива|случајној променљивој]]. У овом контексту, обично се мисли на Шенонову ентропију, која квантификује очекивану вредност информације садржане у поруци, обично у јединицама као што су бити. Еквивалентно, Шенонова ентропија је мера просечног информационог садржаја који се пропушта када се не зна вредност случајне променљиве. Концепт је увео [[Klod Elvud Šenon|Клод Шенон]] у свом чувеном раду из [[1948]]. године „Математичка теорија комуникација“.


Ред 4: Ред 6:


Једно бацање фер новчића носи ентропију од једног [[Бит (рачунарство)|бита]]. Два бацања - два бита. Брзина ентропије за новчић је један бит по бацању. Међутим, ако новчић није фер, тада је неодређеност мања (ако бисмо морали да се кладимо на исход наредног покушаја, вероватно ћемо се кладити на чешћи резултат), па је и Шенонова ентропија мања. Математички, једно бацање новчића (фер или не) представља [[Данијел Бернули|Бернулијев]] експеримент, а његова ентропија дата је бинарном ентропијском функцијом. Низ бацања новчића са две главе имаће нулту ентропију, јер су исходи потпуно предвидљиви. Брзина ентропије текста на енглеском је од 1 до 1,5 бита по слову, односно од 0,6 до 1,3 бита по слову, према проценама базираним на експериментима.<ref>-{Schneier, B: ''Applied Cryptography'', Second edition, page 234. John Wiley and Sons.}-</ref><ref>-{Shannon, Claude E.: Prediction and entropy of printed English, ''The Bell System Technical Journal'', 30:50-64, January 1951.}-</ref>
Једно бацање фер новчића носи ентропију од једног [[Бит (рачунарство)|бита]]. Два бацања - два бита. Брзина ентропије за новчић је један бит по бацању. Међутим, ако новчић није фер, тада је неодређеност мања (ако бисмо морали да се кладимо на исход наредног покушаја, вероватно ћемо се кладити на чешћи резултат), па је и Шенонова ентропија мања. Математички, једно бацање новчића (фер или не) представља [[Данијел Бернули|Бернулијев]] експеримент, а његова ентропија дата је бинарном ентропијском функцијом. Низ бацања новчића са две главе имаће нулту ентропију, јер су исходи потпуно предвидљиви. Брзина ентропије текста на енглеском је од 1 до 1,5 бита по слову, односно од 0,6 до 1,3 бита по слову, према проценама базираним на експериментима.<ref>-{Schneier, B: ''Applied Cryptography'', Second edition, page 234. John Wiley and Sons.}-</ref><ref>-{Shannon, Claude E.: Prediction and entropy of printed English, ''The Bell System Technical Journal'', 30:50-64, January 1951.}-</ref>

The measure of information entropy associated with each possible data value is the negative [[logarithm]] of the [[probability mass function]] for the value:
:<math display> S = - \sum_i P_i\log{P_i} </math>. <ref name=pathriaBook>{{cite book |last1=Pathria |first1=R. K. |last2=Beale | first2=Paul |date=2011 |title=Statistical Mechanics (Third Edition) |url=https://books.google.com/?id=KdbJJAXQ-RsC&printsec=frontcover#v=onepage&q&f=false |publisher=Academic Press |page=51 |isbn=978-0123821881}}</ref>
When the data source has a lower-probability value (i.e., when a low-probability event occurs), the event carries more "information" ("surprisal") than when the source data has a higher-probability value. The amount of information conveyed by each event defined in this way becomes a [[random variable]] whose expected value is the information entropy. Generally, ''entropy'' refers to disorder or uncertainty, and the definition of entropy used in information theory is directly analogous to the [[Entropy (statistical thermodynamics)|definition used]] in [[statistical thermodynamics]]. The concept of information entropy was introduced by [[Claude Shannon]] in his 1948 paper "[[A Mathematical Theory of Communication]]".<ref name=shannonPaper>{{cite journal |last=Shannon |first=Claude E. |authorlink=Claude Shannon |title=A Mathematical Theory of Communication |journal=[[Bell System Technical Journal]] |volume=27 |issue=3 |pages=379–423 |date= 1948 |doi=10.1002/j.1538-7305.1948.tb01338.x|title-link=A Mathematical Theory of Communication |hdl=11858/00-001M-0000-002C-4314-2 }} ([https://web.archive.org/web/20120615000000*/https://www.alcatel-lucent.com/bstj/vol27-1948/articles/bstj27-3-379.pdf PDF], archived from [http://www.alcatel-lucent.com/bstj/vol27-1948/articles/bstj27-3-379.pdf here])</ref>

The basic model of a [[data communication]] system is composed of three elements, a source of data, a [[communication channel]], and a receiver, and – as expressed by Shannon – the "fundamental problem of communication" is for the receiver to be able to identify what data was generated by the source, based on the signal it receives through the channel.<ref>{{cite journal |url=http://math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf |title=A Mathematical Theory of Communication |first=Claude E. |last=Shannon |journal=[[Bell System Technical Journal]] |volume=27 |year=1948}}, July and October</ref>{{rp|379–423 and 623–656}} The entropy provides an absolute limit on the shortest possible average length of a [[lossless]] [[data compression|compression]] encoding of the data produced by a source, and if the entropy of the source is less than the [[channel capacity]] of the communication channel, the data generated by the source can be reliably communicated to the receiver (at least in theory, possibly neglecting some practical considerations such as the complexity of the system needed to convey the data and the amount of time it may take for the data to be conveyed).

Information entropy is typically measured in [[bit]]s (alternatively called "[[shannon (unit)|shannon]]s") or sometimes in "natural units" ([[nat (unit)|nat]]s) or decimal digits (called "dits", "bans", or "[[Hartley (unit)|hartleys]]"). The unit of the measurement depends on the base of the logarithm that is used to define the entropy.

The logarithm of the probability distribution is useful as a measure of entropy because it is additive for independent sources. For instance, the entropy of a fair coin toss is 1 bit, and the entropy of {{math|''m''}} tosses is {{math|''m''}} bits. In a straightforward representation, {{math|log<sub>2</sub>(''n'')}} bits are needed to represent a variable that can take one of {{math|''n''}} values if {{math|''n''}} is a power of 2. If these values are equally probable, the entropy (in bits) is equal to this number. If one of the values is more probable to occur than the others, an observation that this value occurs is less informative than if some less common outcome had occurred. Conversely, rarer events provide more information when observed. Since observation of less probable events occurs more rarely, the net effect is that the entropy (thought of as average information) received from non-uniformly distributed data is always less than or equal to {{math|log<sub>2</sub>(''n'')}}. Entropy is zero when one outcome is certain to occur. The entropy quantifies these considerations when a probability distribution of the source data is known. The ''meaning'' of the events observed (the meaning of ''messages'') does not matter in the definition of entropy. Entropy only takes into account the probability of observing a specific event, so the information it encapsulates is information about the underlying probability distribution, not the meaning of the events themselves.


== Дефиниција ==
== Дефиниција ==
Шенон је дефинисао ентропију <math>H</math> дискретног извора без меморије (дискретне случајне променљиве) <math>X</math> над коначним алфабетом <math>Z=\{z_1, z_2, \dots, z_m\}</math> на следећи начин. Прво се додели свакој [[вероватноћа|вероватноћи]] <math>p</math> неког догађаја њена количина информације <math>I(p) = -\log_2 p</math>. Тада је ентропија по симболу дефинисана као очекивана вредност (математичко очекивање) количине информација
Шенон је дефинисао ентропију <math>H</math> дискретног извора без меморије (дискретне случајне променљиве) <math>X</math> над коначним алфабетом <math>Z=\{z_1, z_2, \dots, z_m\}</math> на следећи начин. Прво се додели свакој [[вероватноћа|вероватноћи]] <math>p</math> неког догађаја њена количина информације <math>I(p) = -\log_2 p</math>. Тада је ентропија по симболу дефинисана као очекивана вредност (математичко очекивање) количине информација
: <math>H_1 = \sum_{z\in Z} p_z \cdot I(p_z) = - \sum_{z\in Z} p_z \cdot \log_2 p_z</math>,
: <math>H_1 = \sum_{z\in Z} p_z \cdot I(p_z) = - \sum_{z\in Z} p_z \cdot \log_2 p_z</math>,
Нека је <math>z\in Z</math>, тада је <math>p_z = P(X=z)</math> вероватноћа да се догоди симбол <math>z</math> из алфабета, или еквивалентно
Нека је <math>z\in Z</math>, тада је <math>p_z = P(X=z)</math> вероватноћа да се догоди симбол <math>z</math> из алфабета, или еквивалентно<ref>{{cite book|author=Borda, Monica|title=Fundamentals in Information Theory and Coding|publisher=Springer|year=2011|isbn=978-3-642-20346-6|url=https://books.google.com/books?id=Lyte2yl1SPAC&pg=PA11}}</ref>{{rp|11}}<ref>{{cite book|authors=Han, Te Sun & Kobayashi, Kingo|title=Mathematics of Information and Coding|publisher=American Mathematical Society|year=2002|isbn=978-0-8218-4256-0|url=https://books.google.com/books?id=VpRESN24Zj0C&pg=PA19}}</ref>{{rp|19–20}}
:<math>(1)\qquad H_1 = - \sum_{i=1}^{m} p_i \cdot \log_2 p_i</math>,
:<math>(1)\qquad H_1 = - \sum_{i=1}^{m} p_i \cdot \log_2 p_i</math>,


Ред 27: Ред 39:


== Види још ==
== Види још ==

* [[Ентропија]]
* [[Ентропија]]


== Извори ==
== Извори ==
{{reflist}}
{{reflist}}

== Литература ==
{{refbegin}}
* Arndt, C. (2004), ''Information Measures: Information and its Description in Science and Engineering'', Springer, {{isbn|978-3-540-40855-0}}
* [[Thomas M. Cover|Cover, T. M.]], Thomas, J. A. (2006), ''Elements of information theory'', 2nd Edition. Wiley-Interscience. {{isbn|0-471-24195-4}}.
* Gray, R. M. (2011), ''Entropy and Information Theory'', Springer.
* [[David J. C. MacKay|MacKay, David J. C.]]. ''[http://www.inference.phy.cam.ac.uk/mackay/itila/book.html Information Theory, Inference, and Learning Algorithms]'' Cambridge: Cambridge University Press, 2003. {{isbn|0-521-64298-1}}
* {{cite book|authors=Martin, Nathaniel F.G. & England, James W.|title=Mathematical Theory of Entropy|publisher=Cambridge University Press|year=2011|isbn=978-0-521-17738-2|url=https://books.google.com/books?id=_77lvx7y8joC}}
* [[Claude Shannon|Shannon, C.E.]], [[Warren Weaver|Weaver, W.]] (1949) ''The Mathematical Theory of Communication'', Univ of Illinois Press. {{isbn|0-252-72548-4}}
* Stone, J. V. (2014), Chapter 1 of [http://jim-stone.staff.shef.ac.uk/BookInfoTheory/InfoTheoryBookMain.html ''Information Theory: A Tutorial Introduction''], University of Sheffield, England. {{isbn|978-0956372857}}.
{{refend}}

== Спољашње везе ==
{{Commons category|Entropy (information theory)}}
* {{springer|title=Entropy|id=p/e035740}}
* -{[http://pespmc1.vub.ac.be/ENTRINFO.html Introduction to entropy and information] on [[Principia Cybernetica Web]]}-
* -{''[http://www.mdpi.com/journal/entropy Entropy]'' an interdisciplinary journal on all aspects of the entropy concept. Open access.}-
* -{[http://www.rheingold.com/texts/tft/6.html Description of information entropy from "Tools for Thought" by Howard Rheingold]}-
* -{[http://math.ucsd.edu/~crypto/java/ENTROPY/ A java applet representing Shannon's Experiment to Calculate the Entropy of English]}-
* -{[http://www.autonlab.org/tutorials/infogain.html Slides on information gain and entropy]}-
* -{[[Wikibooks:An Intuitive Guide to the Concept of Entropy Arising in Various Sectors of Science|''An Intuitive Guide to the Concept of Entropy Arising in Various Sectors of Science'']] – a wikibook on the interpretation of the concept of entropy.}-
* -{[//researchspace.auckland.ac.nz/handle/2292/3427 Network Event Detection With Entropy Measures], Dr. Raimund Eimann, University of Auckland, PDF; 5993&nbsp;kB – a PhD thesis demonstrating how entropy measures may be used in network anomaly detection.}-
* -{[http://rosettacode.org/wiki/Entropy [[Rosetta Code]] repository of implementations of Shannon entropy in different programming languages.]}-
* -{[http://tuvalu.santafe.edu/~simon/it.pdf "Information Theory for Intelligent People"]. Short introduction to the axioms of information theory, entropy, mutual information, Kullback–Liebler divergence, and Jensen–Shannon distance.}-
* -{[http://www.shannonentropy.netmark.pl Online tool for calculating entropy (plain text)]}-
* -{[//servertest.online/entropy Online tool for calculating entropy (binary)]}-

{{Authority control}}

{{DEFAULTSORT:Ентропија (теорија информација)}}


[[Категорија:Теорија информације]]
[[Категорија:Теорија информације]]

Верзија на датум 5. фебруар 2019. у 02:54

Two bits of entropy: In the case of two fair coin tosses, the information entropy in bits is the base-2 logarithm of the number of possible outcomes; with two coins there are four possible outcomes, and two bits of entropy. Generally, information entropy is the average amount of information conveyed by an event, when considering all possible outcomes.

У теорији информације, ентропија је мера неодређености придружена случајној променљивој. У овом контексту, обично се мисли на Шенонову ентропију, која квантификује очекивану вредност информације садржане у поруци, обично у јединицама као што су бити. Еквивалентно, Шенонова ентропија је мера просечног информационог садржаја који се пропушта када се не зна вредност случајне променљиве. Концепт је увео Клод Шенон у свом чувеном раду из 1948. године „Математичка теорија комуникација“.

Шенонова ентропија представља апсолутну границу најбоље могуће компресије без губитака било какве комуникације, под извесним ограничењима: ако третирамо поруке да су кодоване као низ независних случајних променљивих са истом расподелом, прва Шенонова теорема показује да, у граничном случају, средња дужина најкраће могуће репрезентације за кодовање порука у датом алфабету је њихова ентропија подељена са логаритмом броја симбола у циљном алфабету.

Једно бацање фер новчића носи ентропију од једног бита. Два бацања - два бита. Брзина ентропије за новчић је један бит по бацању. Међутим, ако новчић није фер, тада је неодређеност мања (ако бисмо морали да се кладимо на исход наредног покушаја, вероватно ћемо се кладити на чешћи резултат), па је и Шенонова ентропија мања. Математички, једно бацање новчића (фер или не) представља Бернулијев експеримент, а његова ентропија дата је бинарном ентропијском функцијом. Низ бацања новчића са две главе имаће нулту ентропију, јер су исходи потпуно предвидљиви. Брзина ентропије текста на енглеском је од 1 до 1,5 бита по слову, односно од 0,6 до 1,3 бита по слову, према проценама базираним на експериментима.[1][2]

The measure of information entropy associated with each possible data value is the negative logarithm of the probability mass function for the value:

. [3]

When the data source has a lower-probability value (i.e., when a low-probability event occurs), the event carries more "information" ("surprisal") than when the source data has a higher-probability value. The amount of information conveyed by each event defined in this way becomes a random variable whose expected value is the information entropy. Generally, entropy refers to disorder or uncertainty, and the definition of entropy used in information theory is directly analogous to the definition used in statistical thermodynamics. The concept of information entropy was introduced by Claude Shannon in his 1948 paper "A Mathematical Theory of Communication".[4]

The basic model of a data communication system is composed of three elements, a source of data, a communication channel, and a receiver, and – as expressed by Shannon – the "fundamental problem of communication" is for the receiver to be able to identify what data was generated by the source, based on the signal it receives through the channel.[5]:379–423 and 623–656 The entropy provides an absolute limit on the shortest possible average length of a lossless compression encoding of the data produced by a source, and if the entropy of the source is less than the channel capacity of the communication channel, the data generated by the source can be reliably communicated to the receiver (at least in theory, possibly neglecting some practical considerations such as the complexity of the system needed to convey the data and the amount of time it may take for the data to be conveyed).

Information entropy is typically measured in bits (alternatively called "shannons") or sometimes in "natural units" (nats) or decimal digits (called "dits", "bans", or "hartleys"). The unit of the measurement depends on the base of the logarithm that is used to define the entropy.

The logarithm of the probability distribution is useful as a measure of entropy because it is additive for independent sources. For instance, the entropy of a fair coin toss is 1 bit, and the entropy of m tosses is m bits. In a straightforward representation, log2(n) bits are needed to represent a variable that can take one of n values if n is a power of 2. If these values are equally probable, the entropy (in bits) is equal to this number. If one of the values is more probable to occur than the others, an observation that this value occurs is less informative than if some less common outcome had occurred. Conversely, rarer events provide more information when observed. Since observation of less probable events occurs more rarely, the net effect is that the entropy (thought of as average information) received from non-uniformly distributed data is always less than or equal to log2(n). Entropy is zero when one outcome is certain to occur. The entropy quantifies these considerations when a probability distribution of the source data is known. The meaning of the events observed (the meaning of messages) does not matter in the definition of entropy. Entropy only takes into account the probability of observing a specific event, so the information it encapsulates is information about the underlying probability distribution, not the meaning of the events themselves.

Дефиниција

Шенон је дефинисао ентропију дискретног извора без меморије (дискретне случајне променљиве) над коначним алфабетом на следећи начин. Прво се додели свакој вероватноћи неког догађаја њена количина информације . Тада је ентропија по симболу дефинисана као очекивана вредност (математичко очекивање) количине информација

,

Нека је , тада је вероватноћа да се догоди симбол из алфабета, или еквивалентно[6]:11[7]:19–20

,

За граничну вредност се може показати да је нула. Према томе, сабирци са вероватноћом једнаком нули не доприносе укупном збиру (тј. ентропији).

Ентропија за речи дужине је дата са

,

где је вероватноћа да ће се догодити реч . Ентропија је тада гранична вредност:

.

Ако су симболи статистички независни, тада за свако , као и .

Интерпретација

Ентропија представља меру просечног информационог садржаја по симболу извора који представља неки систем или информациону секвенцу. У теорији информација, као мера за количину информације у некој поруци може послужити колико се променила вероватноћа догађаја под утицајем те поруке. На пример, ако за време лета временска прогноза за сутрашњи дан најави 30° C, то нам неће донети много информација, јер не садржи ништа неочекивано. Међутим, ако се иста таква прогноза догоди зими, то представља потпуно неочекивану вест и самим тим садржи много информација. Под информацијом се може сматрати и мера уклоњене несигурности. Што се више симбола прими од извора, добијамо више информација и опада несигурност око онога шта је могло бити послато.

Дефиниција информационог садржаја се може на следећи начин описати: ако се деси догађај чија је вероватноћа , тада је кроз то изабран један конкретан догађај из хипотетичког скупа од једнако вероватних догађаја. Да би се ови догађаји међусобно разликовали, потребно им је доделити бита. Ова вредност представља количину информације једног одређеног догађаја у битима. Када се количина информације сваког догађаја пондерише са вероватноћом истог догађаја, и када се саберу (тј. пронађе се математичко очекивање количине информације), добијамо средњу или очекивану количину информације по симболу.

Јединица Шенон дефинише количину информације коју садржи порука о догађају са вероватноћом . На пример, саопштење о томе да је метални новчић пао на одређену страну доноси информацију од 1 Шенона. Или, ако на пријемној страни бинарног телекомуникационог система, чији је сигнал састављен од биполарних импулса константне амплитуде, меримо поларност долазећих импулса, и ако је вероватноћа појављивања позитивних и негативних амплитуда једнака, онда сваки импулс носи информацију од 1 Шенона. Међутим, ако вероватноће појављивања позитивних и негативних амплитуда нису једнаке, онда један импулс доноси пријемнику неку другу количину информација која није 1 Шенон. Треба разликовати појам бинарни дигит, скраћено бит, од појма Шенон. Бит је само носилац информације и физички је представљен импулсом који може да има два стања. У зависности од вероватноће појављивања стања, бит може да доноси пријемнику већу или мању количину информација. Само кад су вероватноће појављивања два стања код бита једнаке, онда бит носи количину информације од 1 Шенона.[8]

Види још

Извори

  1. ^ Schneier, B: Applied Cryptography, Second edition, page 234. John Wiley and Sons.
  2. ^ Shannon, Claude E.: Prediction and entropy of printed English, The Bell System Technical Journal, 30:50-64, January 1951.
  3. ^ Pathria, R. K.; Beale, Paul (2011). Statistical Mechanics (Third Edition). Academic Press. стр. 51. ISBN 978-0123821881. 
  4. ^ Shannon, Claude E. (1948). „A Mathematical Theory of Communication”. Bell System Technical Journal. 27 (3): 379—423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2.  (PDF, archived from here)
  5. ^ Shannon, Claude E. (1948). „A Mathematical Theory of Communication” (PDF). Bell System Technical Journal. 27. , July and October
  6. ^ Borda, Monica (2011). Fundamentals in Information Theory and Coding. Springer. ISBN 978-3-642-20346-6. 
  7. ^ Han, Te Sun & Kobayashi, Kingo (2002). Mathematics of Information and Coding. American Mathematical Society. ISBN 978-0-8218-4256-0. 
  8. ^ Лукатела, Г: Статистичка теорија телекомуникација и теорија информација, pp. 258-259. Грађевинска књига, Београд, 1981.

Литература

Спољашње везе