Википедия

Взаимная информация

Взаимная информация — количество информации, содержащееся в -ом значении одной случайной величины (-ой точке одного дискретного пространства) относительно -го значения другой случайной величины (-ой точке другого дискретного пространства). Это позволяет интерпретировать взаимную информацию как меру статистической связи между значениями двух случайных величин.

Средняя взаимная информация или взаимная энтропияматематическое ожидание взаимной информации. Представляет собой статистическую функцию двух случайных величин, описывающая среднее количество информации одной случайной величины, содержащейся в другой случайной величине (среднее количество информации об одной случайной величине, получаемое при определении значения другой случайной величины).

При передачи информации по каналу связи средняя взаимная информация представляет собой среднее количество информации, полученной о переданном сообщении после его получения.

Определение

Количество информации, содержащееся в image-ом значении случайной величины image (событии image) относительно image-го значения случайной величины image (события image) называется взаимной информацией между событиями image и image и определяется по формуле:

image

где image — вероятность события image, image — вероятность события image, image — вероятность события image при условии выполнения события image, image — вероятность события image при условии выполнения события image.

Использование в выражении image в качестве разделителя запятой означает, что эту величину следует отличать от собственной информации, содержащейся в произведении (паре) значений image и image.

Основание логарифма определяет величину единицы измерения информации. Наиболее часто используется основание 2 и единицей информации является бит. Также в качестве основания логарифма используются e, 3, 10.

Взаимная информация между событиями image и image может быть выражена в виде:

image

где

image — количество собственной информации, содержащейся в image,
image — количество собственной информации, содержащейся в image,
image — условная собственная информация, содержащаяся в image, при условии выполнения события image,
image — условная собственная информация, содержащаяся в image, при условии выполнения события image.

На основании такой записи взаимная информация image может быть интерпретирована как разность между количеством информации, требуемой для идентификации image до и после того как становится известным image. Она же равна разности между количеством информации, требуемой для идентификации image до и после того как становится известным image.

Средняя взаимная информация определяется через энтропию и условную энтропию двух случайных величин как:

image

где image — энтропия случайной величины image, то есть среднее значение собственной информации, image — среднее значение условной собственной информации или

image

где

image
image
image

Тогда средняя взаимная информация определяется по формуле:

image

Свойства взаимной информации

Свойства взаимной информации:

  • Взаимная информация является симметричной функцией случайных величин:
image
  • Для независимых значений image и image взаимная информация равна нулю:
image
  • Взаимная информация может принимать как положительные, так и отрицательные значения. Если условная вероятность больше безусловной, то взаимная информация положительна, если наоборот, то отрицательна.

Свойства средней взаимной информации:

  • Взаимная информация является симметричной функцией случайных величин:
image
  • Взаимная информация неотрицательна и не превосходит энтропию аргументов:
image
  • Для независимых случайных величин взаимная информация равна нулю:
image
  • Когда одна случайная величина (например, image) является детерминированной функцией другой случайной величины (image), взаимная информация равна энтропии:
image

Условная взаимная информация

Условная взаимная информация — статистическая функция, описывающая количество информации, содержащееся в одном значении случайной величины относительно значения другой случайной величины, при условии заданного значения третьей случайной величины:

image

Средняя условная взаимная информация — статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:

image

Среднюю условную взаимную информацию можно представить в виде:

image

Передача информации

Пусть передаче подлежит сообщение image, состоящее из последовательности символов image. На приемном конце после демодуляции получается сообщение image, состоящее из последовательности символов image. На приёмном конце переданные символы заранее неизвестны, известны только вероятности их передачи.

Скоростью передачи информации по дискретному каналу связи (между входом модулятора передатчика и выходом демодулятора приёмника) называется величина:

image

где

image — среднее время, затрачиваемое на передачу одного символа,
image — средняя взаимная информация,
image — производительность источника сообщений, image — энтропия источника сообщений, являющаяся степенью неопределенности передачи того или иного символа.

Величина

image

называется ненадежностью, отнесённой к единице времени, image является условной энтропией и называется ненадежностью, то есть средним количеством информации, теряемой при передаче информации и являющейся мерой неопределённости принятого символа.

Отличие скорости image от скорости image при равномерном кодировании символов сообщения состоит в том, что image является действительной скоростью передачи информации, а image — скоростью создания информации (технической скоростью передачи информации (битов)), где image — длительность бита.

В случае, когда в канале связи отсутствует шум, выходные символы image являются детерминированной функцией входных символов image. Поэтому после получения символов image, неопределенность в знании значений символов image полностью пропадёт (символы будут известны абсолютно точно). Поэтому ненадежность image станет равной нулю. Следовательно, средняя взаимная информация между переданными и полученными символами станет равной энтропии источника сообщений и скорость передачи информации будет максимальна.

В случае, когда в канале связи присутствует шум, выходные символы канала image не являются детерминированной функцией входных символов канала image. Поэтому после получения символов image, возникнет неопределенность в знании значений символов image (символы не будут известны абсолютно точно). Поэтому ненадежность image станет больше нуля. Следовательно, средняя взаимная информация между переданными и полученными символами уменьшится по сравнению со случаем отсутствия шума. При слишком большом шуме выходные символы image станут статистически независимыми от входных символов image, то есть неопределенность в знании значений символов image будет совпадать с энтропией источника сообщений image, то есть взаимная информация между переданными и принятыми символами станет равной нулю, и скорость передачи информации тоже станет равной нулю. В двоичном канале (входные символы канала являются битами), когда вероятность ошибочного приёма символов равна image, скорость передачи информации равна нулю, так как примерно половина символов окажутся принятыми неправильно, то есть никакой действительной передачи информации не будет происходить, при этом скорость создания информации останется неизменной.

Примечания

  1. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 43.
  2. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 44.
  3. Усенко О. А. Приложения теории информации и криптографии в радиотехнических системах, 2017. — С. 36.
  4. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 57.
  5. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 65.
  6. Гельфанд И. М., Яглом А. М. О вычислении количества информации о случайной функции, содержащейся в другой такой функции. Успехи математических наук, 1957, том 12, выпуск 1. — С. 5.
  7. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 66.
  8. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 50.
  9. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 53.
  10. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 51—52.
  11. Кудряшов В. Д. Теория информации, 2009. — С. 107.
  12. Фано Р. М. Передача информации. Статистическая теория связи, 1965. — С. 61.
  13. Фомичёв В. М. Элементы теории информации в защите информации, 2021. — С. 168.
  14. Кудряшов В. Д. Теория информации, 2009. — С. 106.
  15. Кудряшов В. Д. Теория информации, 2009. — С. 106—107.
  16. Ромащенко А. Е. Введение в теорию информации, 2013. — С. 3—4.
  17. Галлагер Р. Теория информации и надежная связь, 1974. — С. 37.
  18. Финк Л. М. Теория передачи дискретных сообщений, 1970. — С. 49.
  19. Шеннон К. Работы по теории информации и кибернетике, 1963. — С. 277.

Литература

  • Габидулин Э. М., Пилипчук Н. И. Лекции по теории информацииМФТИ, 2007. — 214 с. — ISBN 978-5-7417-0197-3

Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Взаимная информация, Что такое Взаимная информация? Что означает Взаимная информация?

Vzaimnaya informaciya kolichestvo informacii soderzhasheesya v i displaystyle i om znachenii odnoj sluchajnoj velichiny i displaystyle i oj tochke odnogo diskretnogo prostranstva otnositelno k displaystyle k go znacheniya drugoj sluchajnoj velichiny k displaystyle k oj tochke drugogo diskretnogo prostranstva Eto pozvolyaet interpretirovat vzaimnuyu informaciyu kak meru statisticheskoj svyazi mezhdu znacheniyami dvuh sluchajnyh velichin Srednyaya vzaimnaya informaciya ili vzaimnaya entropiya matematicheskoe ozhidanie vzaimnoj informacii Predstavlyaet soboj statisticheskuyu funkciyu dvuh sluchajnyh velichin opisyvayushaya srednee kolichestvo informacii odnoj sluchajnoj velichiny soderzhashejsya v drugoj sluchajnoj velichine srednee kolichestvo informacii ob odnoj sluchajnoj velichine poluchaemoe pri opredelenii znacheniya drugoj sluchajnoj velichiny Pri peredachi informacii po kanalu svyazi srednyaya vzaimnaya informaciya predstavlyaet soboj srednee kolichestvo informacii poluchennoj o peredannom soobshenii posle ego polucheniya OpredelenieKolichestvo informacii soderzhasheesya v i displaystyle i om znachenii sluchajnoj velichiny B displaystyle B sobytii bi displaystyle b i otnositelno k displaystyle k go znacheniya sluchajnoj velichiny A displaystyle A sobytiya ak displaystyle a k nazyvaetsya vzaimnoj informaciej mezhdu sobytiyami bi displaystyle b i i ak displaystyle a k i opredelyaetsya po formule I ak bi log2 p ak bi p ak log2 p bi ak p bi displaystyle I a k b i log 2 frac p a k b i p a k log 2 frac p b i a k p b i gde p ak displaystyle p a k veroyatnost sobytiya ak displaystyle a k p bi displaystyle p b i veroyatnost sobytiya bi displaystyle b i p ak bi displaystyle p a k b i veroyatnost sobytiya ak displaystyle a k pri uslovii vypolneniya sobytiya bi displaystyle b i p bi ak displaystyle p b i a k veroyatnost sobytiya bi displaystyle b i pri uslovii vypolneniya sobytiya ak displaystyle a k Ispolzovanie v vyrazhenii I ak bi displaystyle I a k b i v kachestve razdelitelya zapyatoj oznachaet chto etu velichinu sleduet otlichat ot sobstvennoj informacii soderzhashejsya v proizvedenii pare znachenij ak displaystyle a k i bi displaystyle b i Osnovanie logarifma opredelyaet velichinu edinicy izmereniya informacii Naibolee chasto ispolzuetsya osnovanie 2 i edinicej informacii yavlyaetsya bit Takzhe v kachestve osnovaniya logarifma ispolzuyutsya e 3 10 Vzaimnaya informaciya mezhdu sobytiyami bi displaystyle b i i ak displaystyle a k mozhet byt vyrazhena v vide I ak bi I ak I ak bi I bi I bi ak displaystyle I a k b i I a k I a k b i I b i I b i a k gde I ak log2 p ak displaystyle I a k log 2 p a k kolichestvo sobstvennoj informacii soderzhashejsya v ak displaystyle a k I bi log2 p bi displaystyle I b i log 2 p b i kolichestvo sobstvennoj informacii soderzhashejsya v bi displaystyle b i I ak bi log2 p ak bi displaystyle I a k b i log 2 p a k b i uslovnaya sobstvennaya informaciya soderzhashayasya v ak displaystyle a k pri uslovii vypolneniya sobytiya bi displaystyle b i I bi ak log2 p bi ak displaystyle I b i a k log 2 p b i a k uslovnaya sobstvennaya informaciya soderzhashayasya v bi displaystyle b i pri uslovii vypolneniya sobytiya ak displaystyle a k Na osnovanii takoj zapisi vzaimnaya informaciya I ak bi displaystyle I a k b i mozhet byt interpretirovana kak raznost mezhdu kolichestvom informacii trebuemoj dlya identifikacii ak displaystyle a k do i posle togo kak stanovitsya izvestnym bi displaystyle b i Ona zhe ravna raznosti mezhdu kolichestvom informacii trebuemoj dlya identifikacii bi displaystyle b i do i posle togo kak stanovitsya izvestnym ak displaystyle a k Srednyaya vzaimnaya informaciya opredelyaetsya cherez entropiyu i uslovnuyu entropiyu dvuh sluchajnyh velichin kak I A B I A I A B I B I B A displaystyle I A B I A I A mid B I B I B mid A gde I A H A displaystyle I A H A entropiya sluchajnoj velichiny A displaystyle A to est srednee znachenie sobstvennoj informacii I A B H A B displaystyle I A mid B H A mid B srednee znachenie uslovnoj sobstvennoj informacii ili I A B H A H A B H B H B A H A H B H AB displaystyle I A B H A H A mid B H B H B mid A H A H B H AB gde H A kp ak log2 p ak displaystyle H A sum k p a k log 2 p a k H A B k ip ak bi log2 p ak bi displaystyle H A mid B sum k sum i p a k b i log 2 p a k mid b i H AB k ip ak bi log2 p ak bi displaystyle H AB sum k sum i p a k b i log 2 p a k b i Togda srednyaya vzaimnaya informaciya opredelyaetsya po formule I A B k ip ak bi log2 p ak bi p ak displaystyle I A B sum k sum i p a k b i log 2 frac p a k b i p a k Svojstva vzaimnoj informaciiSvojstva vzaimnoj informacii Vzaimnaya informaciya yavlyaetsya simmetrichnoj funkciej sluchajnyh velichin I ak bi I bi ak displaystyle I a k b i I b i a k dd Dlya nezavisimyh znachenij ak displaystyle a k i bi displaystyle b i vzaimnaya informaciya ravna nulyu I ak bi 0 displaystyle I a k b i 0 dd Vzaimnaya informaciya mozhet prinimat kak polozhitelnye tak i otricatelnye znacheniya Esli uslovnaya veroyatnost bolshe bezuslovnoj to vzaimnaya informaciya polozhitelna esli naoborot to otricatelna Svojstva srednej vzaimnoj informacii Vzaimnaya informaciya yavlyaetsya simmetrichnoj funkciej sluchajnyh velichin I A B I B A displaystyle I A B I B A dd Vzaimnaya informaciya neotricatelna i ne prevoshodit entropiyu argumentov 0 I A B min H A H B displaystyle 0 leq I A B leq min H A H B dd Dlya nezavisimyh sluchajnyh velichin vzaimnaya informaciya ravna nulyu I A B H A H A B H A H A 0 displaystyle I A B H A H A mid B H A H A 0 dd Kogda odna sluchajnaya velichina naprimer A displaystyle A yavlyaetsya determinirovannoj funkciej drugoj sluchajnoj velichiny B displaystyle B vzaimnaya informaciya ravna entropii I A B H A H A B H A 0 H A displaystyle I A B H A H A mid B H A 0 H A dd Uslovnaya vzaimnaya informaciyaUslovnaya vzaimnaya informaciya statisticheskaya funkciya opisyvayushaya kolichestvo informacii soderzhasheesya v odnom znachenii sluchajnoj velichiny otnositelno znacheniya drugoj sluchajnoj velichiny pri uslovii zadannogo znacheniya tretej sluchajnoj velichiny I ak bi cj log2 p ak bicj p ak cj log2 p ak bi cj p ak cj p bi cj displaystyle I a k b i mid c j log 2 frac p a k b i c j p a k c j log 2 frac p a k b i c j p a k c j p b i c j Srednyaya uslovnaya vzaimnaya informaciya statisticheskaya funkciya tryoh sluchajnyh velichin opisyvayushaya kolichestvo informacii soderzhasheesya v odnoj sluchajnoj velichine otnositelno drugoj pri uslovii zadannoj tretej sluchajnoj velichiny I A B C k i jp ak bi cj log2 p ak bicj p ak cj displaystyle I A B mid C sum k sum i sum j p a k b i c j log 2 frac p a k b i c j p a k c j Srednyuyu uslovnuyu vzaimnuyu informaciyu mozhno predstavit v vide I A B C H A C H A B C displaystyle I A B mid C H A mid C H A mid B C Peredacha informaciiPust peredache podlezhit soobshenie A displaystyle A sostoyashee iz posledovatelnosti simvolov a0 a1 aN displaystyle a 0 a 1 dots a N Na priemnom konce posle demodulyacii poluchaetsya soobshenie B displaystyle B sostoyashee iz posledovatelnosti simvolov b0 b1 bN displaystyle b 0 b 1 dots b N Na priyomnom konce peredannye simvoly zaranee neizvestny izvestny tolko veroyatnosti ih peredachi Skorostyu peredachi informacii po diskretnomu kanalu svyazi mezhdu vhodom modulyatora peredatchika i vyhodom demodulyatora priyomnika nazyvaetsya velichina R I A B Ts H A H A B displaystyle R frac I A B T s H A H A B gde Ts displaystyle T s srednee vremya zatrachivaemoe na peredachu odnogo simvola I A B H A H A B displaystyle I A B H A H A B srednyaya vzaimnaya informaciya H A 1TsH A displaystyle H A frac 1 T s H A proizvoditelnost istochnika soobshenij H A displaystyle H A entropiya istochnika soobshenij yavlyayushayasya stepenyu neopredelennosti peredachi togo ili inogo simvola Velichina H A B 1TsH A B displaystyle H A B frac 1 T s H A B nazyvaetsya nenadezhnostyu otnesyonnoj k edinice vremeni H A B displaystyle H A B yavlyaetsya uslovnoj entropiej i nazyvaetsya nenadezhnostyu to est srednim kolichestvom informacii teryaemoj pri peredache informacii i yavlyayushejsya meroj neopredelyonnosti prinyatogo simvola Otlichie skorosti R displaystyle R ot skorosti Rb 1 Tb log2 M Ts displaystyle R b 1 T b log 2 M T s pri ravnomernom kodirovanii simvolov soobsheniya sostoit v tom chto R displaystyle R yavlyaetsya dejstvitelnoj skorostyu peredachi informacii a Rb displaystyle R b skorostyu sozdaniya informacii tehnicheskoj skorostyu peredachi informacii bitov gde Tb displaystyle T b dlitelnost bita V sluchae kogda v kanale svyazi otsutstvuet shum vyhodnye simvoly bk displaystyle b k yavlyayutsya determinirovannoj funkciej vhodnyh simvolov ak displaystyle a k Poetomu posle polucheniya simvolov bk displaystyle b k neopredelennost v znanii znachenij simvolov ak displaystyle a k polnostyu propadyot simvoly budut izvestny absolyutno tochno Poetomu nenadezhnost H A B displaystyle H A B stanet ravnoj nulyu Sledovatelno srednyaya vzaimnaya informaciya mezhdu peredannymi i poluchennymi simvolami stanet ravnoj entropii istochnika soobshenij i skorost peredachi informacii budet maksimalna V sluchae kogda v kanale svyazi prisutstvuet shum vyhodnye simvoly kanala bk displaystyle b k ne yavlyayutsya determinirovannoj funkciej vhodnyh simvolov kanala ak displaystyle a k Poetomu posle polucheniya simvolov bk displaystyle b k vozniknet neopredelennost v znanii znachenij simvolov ak displaystyle a k simvoly ne budut izvestny absolyutno tochno Poetomu nenadezhnost H A B displaystyle H A B stanet bolshe nulya Sledovatelno srednyaya vzaimnaya informaciya mezhdu peredannymi i poluchennymi simvolami umenshitsya po sravneniyu so sluchaem otsutstviya shuma Pri slishkom bolshom shume vyhodnye simvoly bk displaystyle b k stanut statisticheski nezavisimymi ot vhodnyh simvolov ak displaystyle a k to est neopredelennost v znanii znachenij simvolov ak displaystyle a k budet sovpadat s entropiej istochnika soobshenij H A displaystyle H A to est vzaimnaya informaciya mezhdu peredannymi i prinyatymi simvolami stanet ravnoj nulyu i skorost peredachi informacii tozhe stanet ravnoj nulyu V dvoichnom kanale vhodnye simvoly kanala yavlyayutsya bitami kogda veroyatnost oshibochnogo priyoma simvolov ravna posh 1 2 displaystyle p text osh 1 2 skorost peredachi informacii ravna nulyu tak kak primerno polovina simvolov okazhutsya prinyatymi nepravilno to est nikakoj dejstvitelnoj peredachi informacii ne budet proishodit pri etom skorost sozdaniya informacii ostanetsya neizmennoj PrimechaniyaFano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 43 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 44 Usenko O A Prilozheniya teorii informacii i kriptografii v radiotehnicheskih sistemah 2017 S 36 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 57 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 65 Gelfand I M Yaglom A M O vychislenii kolichestva informacii o sluchajnoj funkcii soderzhashejsya v drugoj takoj funkcii Uspehi matematicheskih nauk 1957 tom 12 vypusk 1 S 5 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 66 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 50 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 53 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 51 52 Kudryashov V D Teoriya informacii 2009 S 107 Fano R M Peredacha informacii Statisticheskaya teoriya svyazi 1965 S 61 Fomichyov V M Elementy teorii informacii v zashite informacii 2021 S 168 Kudryashov V D Teoriya informacii 2009 S 106 Kudryashov V D Teoriya informacii 2009 S 106 107 Romashenko A E Vvedenie v teoriyu informacii 2013 S 3 4 Gallager R Teoriya informacii i nadezhnaya svyaz 1974 S 37 Fink L M Teoriya peredachi diskretnyh soobshenij 1970 S 49 Shennon K Raboty po teorii informacii i kibernetike 1963 S 277 LiteraturaGabidulin E M Pilipchuk N I Lekcii po teorii informacii MFTI 2007 214 s ISBN 978 5 7417 0197 3

NiNa.Az

NiNa.Az - Абсолютно бесплатная система, которая делится для вас информацией и контентом 24 часа в сутки.
Взгляните
Закрыто