Формула Хартли
Формула Хартли или хартлиевское количество информации или мера Хартли — логарифмическая мера информации, которая определяет количество информации, содержащееся в сообщении.
Где N — количество символов в используемом алфавите (мощность алфавита), K — длина сообщения (количество символов в сообщении), I — количество информации в сообщении в битах.
Формула была предложена Ральфом Хартли в 1928 году как один из научных подходов к оценке сообщений.
Для случая определения количества информации i в одном символе алфавита мощности N, формула Хартли принимает вид:
Соответственно, мощность алфавита равна:
Из формулы Хартли следует, что алфавит, содержащий только 1 символ не может быть использован для передачи информации:
Пусть, имеется алфавит А, из N букв которого составляется сообщение:
Количество возможных вариантов разных сообщений:
где M — возможное количество различных сообщений, N — количество букв в алфавите, K — количество букв в сообщении.
Рассмотрим следующий пример. Цепь ДНК состоит из 4 видов азотистых оснований: Аденин (A), Гуанин (G), Тимин (T), Цитозин (C). Следовательно, мощность «алфавита» ДНК N равна 4. Значит, каждое азотистое основание несет бита информации.
Пример: Пусть алфавит состоит из 16 символов «1», «2», «3», «4», «5», «6», «7», «8», «9», «0», «+», «-», «*», «/», «^», «#», а длина сообщения составляет 10 символов (например, команда «*123*1*3^#») — таким образом, мощность алфавита N = 16, а длина сообщения K = 10. При выбранных нами алфавите и длине сообщения можно составить сообщений. По формуле Хартли можно определить, что количество информации в каждом символе одного из этих сообщений равно бита, а количество информации во всем сообщении, соответственно, равно бит.
При равновероятности символов формула Хартли переходит в собственную информацию.
Иллюстрация
Допустим, нам требуется что-либо найти или определить в той или иной системе. Есть такой способ поиска, как «деление пополам». Например, кто-то загадывает число от 1 до 100, а другой должен отгадать его, получая лишь ответы «да» или «нет». Задаётся вопрос: «число меньше N?». Любой из ответов «да» и «нет» сократит область поиска вдвое. Далее по той же схеме диапазон снова делится пополам. В конечном счёте загаданное число будет найдено.
Сколько вопросов надо задать, чтобы найти задуманное число от 1 до 100. Допустим, загаданное число 27. Вариант диалога:
Больше 50? Нет. Больше 25? Да. Больше 38? Нет. Меньше 32? Да. Меньше 29? Да. Меньше 27? Нет. Это число 28? Нет.
Если число не 28 и не меньше 27, то это явно 27. Чтобы угадать методом «деления пополам» число от 1 до 100, нам потребовалось 7 вопросов.
Можно просто спрашивать: это число 1? Это число 2? И т. д. Но тогда вам потребуется намного больше вопросов. «Деление пополам» — оптимальный в данном случае способ нахождения числа. Объём информации, заложенный в ответ «да»/«нет», если эти ответы равновероятны, равен одному биту (действительно, ведь бит имеет два состояния: 1 или 0). Итак, для угадывания числа от 1 до 100 нам потребовалось 7 битов (семь ответов «да»/«нет»).
Такой формулой можно представить, сколько вопросов (битов информации) потребуется, чтобы определить одно из возможных значений. N — это количество значений, а i — количество битов. Например, в нашем примере 27 меньше, чем 28, однако больше, чем 26. Да, нам могло бы потребоваться и всего 6 вопросов, если бы загаданное число было 28.
Формула Хартли:
Количество информации (i), необходимой для определения конкретного элемента, есть логарифм по основанию 2 общего количества элементов (N).
Формула Шеннона
Когда события не равновероятны, может использоваться формула Шеннона:
где pi вероятность i-го события.
См. также
Ссылки
- Формула Хартли измерения количества информации. Закон аддитивности информации
Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Формула Хартли, Что такое Формула Хартли? Что означает Формула Хартли?
Formula Hartli ili hartlievskoe kolichestvo informacii ili mera Hartli logarifmicheskaya mera informacii kotoraya opredelyaet kolichestvo informacii soderzhasheesya v soobshenii I Klog2 N displaystyle I K log 2 N Gde N kolichestvo simvolov v ispolzuemom alfavite moshnost alfavita K dlina soobsheniya kolichestvo simvolov v soobshenii I kolichestvo informacii v soobshenii v bitah Formula byla predlozhena Ralfom Hartli v 1928 godu kak odin iz nauchnyh podhodov k ocenke soobshenij Dlya sluchaya opredeleniya kolichestva informacii i v odnom simvole alfavita moshnosti N formula Hartli prinimaet vid i log2 N displaystyle i log 2 N Sootvetstvenno moshnost alfavita ravna N 2i displaystyle N 2 i Iz formuly Hartli sleduet chto alfavit soderzhashij tolko 1 simvol ne mozhet byt ispolzovan dlya peredachi informacii log2 1 0 displaystyle log 2 1 0 Pust imeetsya alfavit A iz N bukv kotorogo sostavlyaetsya soobshenie A N displaystyle A N Kolichestvo vozmozhnyh variantov raznyh soobshenij M NK displaystyle M N K gde M vozmozhnoe kolichestvo razlichnyh soobshenij N kolichestvo bukv v alfavite K kolichestvo bukv v soobshenii Rassmotrim sleduyushij primer Cep DNK sostoit iz 4 vidov azotistyh osnovanij Adenin A Guanin G Timin T Citozin C Sledovatelno moshnost alfavita DNK N ravna 4 Znachit kazhdoe azotistoe osnovanie neset i log2 4 2 displaystyle i log 2 4 2 bita informacii Primer Pust alfavit sostoit iz 16 simvolov 1 2 3 4 5 6 7 8 9 0 a dlina soobsheniya sostavlyaet 10 simvolov naprimer komanda 123 1 3 takim obrazom moshnost alfavita N 16 a dlina soobsheniya K 10 Pri vybrannyh nami alfavite i dline soobsheniya mozhno sostavit M NK 1610 1099511627776 displaystyle M N K 16 10 1099511627776 soobshenij Po formule Hartli mozhno opredelit chto kolichestvo informacii v kazhdom simvole odnogo iz etih soobshenij ravno i log2 N log2 16 4 displaystyle i log 2 N log 2 16 4 bita a kolichestvo informacii vo vsem soobshenii sootvetstvenno ravno I Klog2 N 10log2 16 10 4 40 displaystyle I K log 2 N 10 log 2 16 10 cdot 4 40 bit Pri ravnoveroyatnosti simvolov p 1m m 1p displaystyle p frac 1 m m frac 1 p formula Hartli perehodit v sobstvennuyu informaciyu IllyustraciyaDopustim nam trebuetsya chto libo najti ili opredelit v toj ili inoj sisteme Est takoj sposob poiska kak delenie popolam Naprimer kto to zagadyvaet chislo ot 1 do 100 a drugoj dolzhen otgadat ego poluchaya lish otvety da ili net Zadayotsya vopros chislo menshe N Lyuboj iz otvetov da i net sokratit oblast poiska vdvoe Dalee po toj zhe sheme diapazon snova delitsya popolam V konechnom schyote zagadannoe chislo budet najdeno Skolko voprosov nado zadat chtoby najti zadumannoe chislo ot 1 do 100 Dopustim zagadannoe chislo 27 Variant dialoga Bolshe 50 Net Bolshe 25 Da Bolshe 38 Net Menshe 32 Da Menshe 29 Da Menshe 27 Net Eto chislo 28 Net Esli chislo ne 28 i ne menshe 27 to eto yavno 27 Chtoby ugadat metodom deleniya popolam chislo ot 1 do 100 nam potrebovalos 7 voprosov Mozhno prosto sprashivat eto chislo 1 Eto chislo 2 I t d No togda vam potrebuetsya namnogo bolshe voprosov Delenie popolam optimalnyj v dannom sluchae sposob nahozhdeniya chisla Obyom informacii zalozhennyj v otvet da net esli eti otvety ravnoveroyatny raven odnomu bitu dejstvitelno ved bit imeet dva sostoyaniya 1 ili 0 Itak dlya ugadyvaniya chisla ot 1 do 100 nam potrebovalos 7 bitov sem otvetov da net N 2i displaystyle N 2 i Takoj formuloj mozhno predstavit skolko voprosov bitov informacii potrebuetsya chtoby opredelit odno iz vozmozhnyh znachenij N eto kolichestvo znachenij a i kolichestvo bitov Naprimer v nashem primere 27 menshe chem 28 odnako bolshe chem 26 Da nam moglo by potrebovatsya i vsego 6 voprosov esli by zagadannoe chislo bylo 28 Formula Hartli i log2 N displaystyle i log 2 N Kolichestvo informacii i neobhodimoj dlya opredeleniya konkretnogo elementa est logarifm po osnovaniyu 2 obshego kolichestva elementov N Formula ShennonaKogda sobytiya ne ravnoveroyatny mozhet ispolzovatsya formula Shennona I ipilog2 pi displaystyle I sum i p i log 2 p i gde pi veroyatnost i go sobytiya Sm takzheSobstvennaya informaciyaSsylkiFormula Hartli izmereniya kolichestva informacii Zakon additivnosti informacii
