Оценка Чернова
Оценка Чернова даёт экспоненциально убывающие оценки вероятности больших отклонений сумм независимых случайных величин. Эти оценки являются более точными, чем оценки, полученные с использованием первых или вторых моментов, такие как неравенство Маркова или неравенство Чебышёва, которые дают лишь степенной закон убывания. Вместе с тем оценка Чернова требует, чтобы случайные величины были независимы в совокупности — условие, которое ни неравенство Маркова, ни неравенство Чебышёва не требуют, хотя неравенство Чебышёва требует попарную независимость случайных величин.
Оценка Чернова имеет отношение к [англ.] и неравенству Хёфдинга, которые ей исторически предшествуют.
Основной случай
Основной случай оценки Чернова для случайной величины достигается применением неравенства Маркова к etX . Для каждого
Когда X является суммой n случайных величин X1, ... ,Xn, для любого
В частности, оптимизируя по t и предполагая, что Xi независимы, мы получаем
(1)
Аналогично
и, таким образом,
Конкретные значения оценок Чернова получаются вычислением для конкретных величин
.
Пример
Пусть X1, ..., Xn — независимые случайные величины Бернулли, сумма которых X, и каждая равна 1 с вероятностью . Для переменной Бернулли верно:
следовательно,
Для всякого при
и
получаем
,
и общий случай оценки Чернова даёт:64
Вероятность одновременного свершения более чем n/2 событий {Xk = 1} в точности равна:
Нижнюю оценку этой вероятности можно вычислить с помощью неравенства Чернова:
В самом деле, обозначая μ = np, мы получаем мультипликативную форму оценки Чернова (см. ниже или Corollary 13.3 in Sinclair's class notes):
Этот результат допускает разнообразные обобщения, как отмечено ниже. Можно отметить несколько форм оценок Чернова: исходную аддитивную форму (даёт оценку для абсолютной ошибки) или более практичную мультипликативную форму (ограничивает ошибку по отношению к среднему).
Аддитивная форма (оценка для абсолютной ошибки)
Следующая Теорема была доказана .
- Теорема Чернова — Хёфдинга. Пусть X1, ..., Xn — независимые одинаково распределённые случайные величины, принимающие значения {0, 1}.
- Положим p = E[X] и ε > 0. Тогда
- где
- Это расхождение Кульбака — Лейблера между случайными величинами, имеющими бернуллиево распределение с параметрами x и y соответственно. Если p ≥ 1/2, то
Более простая оценка получается ослаблением этой теоремы, используя неравенство D(p + ε || p) ≥ 2ε2, которое следует из выпуклости D(p + ε || p) и того факта, что
Этот результат является частным случаем неравенства Хёфдинга. В некоторых случаях используются оценки
более сильные при p < 1/8.
Мультипликативная форма (оценка для относительной ошибки)
- Мультипликативная оценка Чернова. Пусть X1, ..., Xn — независимые случайные величины, принимающие значения {0, 1}. Их сумму обозначим X, математическое ожидание этой суммы обозначим μ. Тогда для всякого
Аналогичным образом можно показать, что для любого
На практике вышеприведённая формула часто оказывается громоздкой, поэтому используются более слабые, но удобные оценки
которые получаются с помощью неравенства из списка логарифмических неравенств. Или ещё более слабое неравенство
Приложения
Оценки Чернова имеют приложения в уравновешивании множеств и маршрутизации пакетов в разреженных сетях.
Проблема уравновешения множества возникает при проектировании статистического эксперимента. Как правило, при проектировании статистического эксперимента с заданными в этом эксперименте свойствами участников нам необходимо разделить участников на две непересекающиеся группы так, чтобы каждое свойство было, насколько это возможно, сбалансировано между двумя группами. См. также информацию в Probability and Computing: Randomized Algorithms and Probabilistic Analysis Архивная копия от 16 апреля 2021 на Wayback Machine.
Оценки Чернова также используются для достижения жестких границ в задачах маршрутизации с использованием перестановок. Это уменьшает перегруженность при маршрутизации в разреженных сетях. См. подробнее в Probability and Computing: Randomized Algorithms and Probabilistic Analysis Архивная копия от 16 апреля 2021 на Wayback Machine.
Также оценки Чернова находят применение в теории вычислительного обучения для доказательства того, что обучающий алгоритм аппроксимационно по вероятности корректен. То есть с высокой вероятностью этот алгоритм имеет малую ошибку на достаточно большом наборе тренировочных данных.
Оценки Чернова могут быть эффективно использованы для оценки "уровня робастности" приложения/алгоритма посредством исследования его пространства возмущений при помощи рандомизации.
Матричная оценка
[англ.] и [англ.] использовали оценки Чернова для случайных величин с матричными значениями. Следующую версию неравенства можно найти в работе Троппа.
Пусть M1, ..., Mt — случайные величины с матричными значениями такие, что и
. Обозначим
оператор нормы матрицы
. Если неравенство
почти наверное выполнено для всех
, то для каждого ε > 0
Чтобы заключить, что отклонение от 0 ограничено величиной ε с высокой вероятностью, нам нужно выбрать (количество образцов) пропорциональным логарифму
. В общем случае зависимость от
неочевидна: например, возьмём диагональную случайную матрицу знаков размерности
. Оператор нормы суммы
независимых образцов является в точности максимальным отклонением среди
независимых случайных блужданий длины
. Для того, чтобы достичь фиксированную границу максимального отклонения с постоянной вероятностью,
должно логарифмически возрастать вместе с
.
Следующая теорема получена в предположении, что имеет низкий ранг, для того, чтобы избежать зависимости от размерности.
Теорема без зависимости от размерности
Пусть 0 < ε < 1 и ─ случайная симметрическая вещественная матрица с
и
почти наверное. Предположим, что каждый элемент носителя
имеет ранг самое большее
. Положим
Если почти наверное, то
где M1, ..., Mt — это независимые одинаково распределенные копии .
Теорема для не полностью случайных матриц
Анкит Гарг, Инь Тат Ли, Чжао Сонг и [англ.] получили оценки типа Чернова для сумм матричнозначных случайных величин, семплированных с помощью случайного блуждания экспандера.
Расмус Кинг и Чжао Сонг получили оценки типа Чернова для сумм матриц лапласианов случайных деревьев.
Вариант семплинга
Следующий вариант оценки Чернова можно использовать для оценки вероятности того, что большинство популяции станет в выборке меньшинством и наоборот.
Предположим, имеется общая популяция и подпопуляция
. Обозначим относительный размер подпопуляции (
) через
.
Допустим, мы выбираем целое кисло и случайную выборку
размера
. Обозначим относительный размер подпопуляции (
) через
.
Тогда для каждой доли :
В частности, если ─ это большинство в
(то есть,
), то мы можем оценить сверху вероятность того, что
останется большинством в
взяв
:
Эта оценка, разумеется, не является точной. Например, если , то мы получаем тривиальную оценку
.
Доказательства
Теорема Чернова-Хёфдинга (аддитивная форма)
Пусть q = p + ε. Взяв a = nq в формуле (1), получаем:
Теперь, зная что Pr(Xi = 1) = p, Pr(Xi = 0) = 1 − p, имеем
Таким образом, мы можем легко вычислить минимум, используя технику дифференцирования:
Приравнивая полученное выражение к нулю и разрешая уравнение относительно , получаем
так что
Следовательно,
Поскольку q = p + ε > p, то мы видим, что t > 0, так что наша оценка удовлетворяется по t. Получив t, мы можем вернуться в предыдущие уравнения и найти
Теперь мы имеем желаемый результат, поскольку
Для завершения доказательства в симметрическом случае мы попросту определим случайную величину Yi = 1 − Xi, применим к ней точно такое же доказательство и присоединим результат к нашей оценке.
Мультипликативная форма
Положим Pr(Xi = 1) = pi. Согласно формуле (1),
Третья строчка следует из того, что принимает значение et с вероятностью pi и значение 1 с вероятностью 1 − pi. Это идентично вычислениям выше в доказательстве аддитивной формы.
Переписав как
и вспомнив, что
(если x > 0, то неравенство строгое), мы положим
. Тот же результат можно получить, напрямую заменяя a в уравнении для оценки Чернова на (1 + δ)μ.
Таким образом,
Если мы просто положим t = ln(1 + δ), так что t > 0 для δ > 0, то сможем подставить это в последнее выражение и найти
,
что и требовалось доказать.
См. также
- Неравенство концентрации меры
Ссылки
- Этот метод был впервые применён Сергеем Бернштейном в доказательствах, связанных с [англ.].
- Mitzenmacher, Michael, & Upfal, Eli. Probability and Computing: Randomized Algorithms and Probabilistic Analysis. — Cambridge University Press, 2005. — ISBN 978-0-521-83540-4. — doi:10.1017/CBO9780511813603.005. Архивная копия от 16 апреля 2021 на Wayback Machine
- Sinclair, Alistair. Class notes for the course "Randomness and Computation" (Fall 2011). Дата обращения: 30 октября 2014. Архивировано из оригинала 31 октября 2014 года.
- Hoeffding, W. (1963). Probability Inequalities for Sums of Bounded Random Variables (PDF). Journal of the American Statistical Association. 58 (301): 13–30. doi:10.2307/2282952. JSTOR 2282952.
- Useful Inequalities. logarithm. Дата обращения: 13 мая 2020. Архивировано 19 августа 2020 года.
- M. Kearns, U. Vazirani. An Introduction to Computational Learning Theory. Chapter 9 (Appendix), pages 190-192. MIT Press, 1994.
- C.Alippi: "Randomized Algorithms" chapter in Intelligence for Embedded Systems. Springer, 2014, 283ppISBN 978-3-319-05278-6.
- Ahlswede, R.; Winter, A. (2003). Strong Converse for Identification via Quantum Channels. [англ.]. 48 (3): 569–579. arXiv:quant-ph/0012127. doi:10.1109/18.985947.
- Tropp, J. (2010). User-friendly tail bounds for sums of random matrices. Foundations of Computational Mathematics. 12 (4): 389–434. arXiv:1004.4389. doi:10.1007/s10208-011-9099-z.
- Magen, A.; Zouzias, A. (2011). Low Rank Matrix-Valued Chernoff Bounds and Approximate Matrix Multiplication. arXiv:1005.2724 [cs.DM].
- Ankit Garg, Yin Tat Lee, Zhao Song, Nikhil Srivastava. A Matrix Expander Chernoff Bound // Association for Computing MachineryNew YorkNYUnited States. — 2018. Архивировано 14 апреля 2021 года.
- Rasmus Kyng, Zhao Song. A Matrix Chernoff Bound for Strongly Rayleigh Distributions and Spectral Sparsifiers from a few Random Spanning Trees // FOCS. — 2018. — 1 октября. Архивировано 22 апреля 2021 года.
- Goldberg, A. V. Competitive Auctions for Multiple Digital Goods // Algorithms — ESA 2001 / A. V. Goldberg, J. D. Hartline. — 2001. — Vol. 2161. — P. 416. — ISBN 978-3-540-42493-2. — doi:10.1007/3-540-44676-1_35.; lemma 6.1
- Посмотреть графики: граница как функция от r с меняющимся k Архивная копия от 4 января 2015 на Wayback Machine и граница как функция от k с меняющимся r Архивная копия от 4 января 2015 на Wayback Machine.
- Обратитесь к приведенному выше доказательству.
Дальнейшее чтение
- Chernoff, H. (1952). A Measure of Asymptotic Efficiency for Tests of a Hypothesis Based on the sum of Observations. [англ.]. 23 (4): 493–507. doi:10.1214/aoms/1177729330. JSTOR 2236576. MR 0057518. Zbl 0048.11804.
- Chernoff, H. (1981). A Note on an Inequality Involving the Normal Distribution. [англ.]. 9 (3): 533–535. doi:10.1214/aop/1176994428. JSTOR 2243541. MR 0614640. Zbl 0457.60014.
- Hagerup, T.; Rüb, C. (1990). A guided tour of Chernoff bounds. [англ.]. 33 (6): 305. doi:10.1016/0020-0190(90)90214-I.
- Nielsen, F. (2011). Chernoff information of exponential families. arXiv:1102.2684 [cs.IT].
Википедия, чтение, книга, библиотека, поиск, нажмите, истории, книги, статьи, wikipedia, учить, информация, история, скачать, скачать бесплатно, mp3, видео, mp4, 3gp, jpg, jpeg, gif, png, картинка, музыка, песня, фильм, игра, игры, мобильный, телефон, Android, iOS, apple, мобильный телефон, Samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Сеть, компьютер, Информация о Оценка Чернова, Что такое Оценка Чернова? Что означает Оценка Чернова?
Ocenka Chernova dayot eksponencialno ubyvayushie ocenki veroyatnosti bolshih otklonenij summ nezavisimyh sluchajnyh velichin Eti ocenki yavlyayutsya bolee tochnymi chem ocenki poluchennye s ispolzovaniem pervyh ili vtoryh momentov takie kak neravenstvo Markova ili neravenstvo Chebyshyova kotorye dayut lish stepennoj zakon ubyvaniya Vmeste s tem ocenka Chernova trebuet chtoby sluchajnye velichiny byli nezavisimy v sovokupnosti uslovie kotoroe ni neravenstvo Markova ni neravenstvo Chebyshyova ne trebuyut hotya neravenstvo Chebyshyova trebuet poparnuyu nezavisimost sluchajnyh velichin Ocenka Chernova imeet otnoshenie k angl i neravenstvu Hyofdinga kotorye ej istoricheski predshestvuyut Osnovnoj sluchajOsnovnoj sluchaj ocenki Chernova dlya sluchajnoj velichiny X displaystyle X dostigaetsya primeneniem neravenstva Markova k etX Dlya kazhdogo t gt 0 displaystyle t gt 0 P X a P et X et a E et X et a displaystyle P X geq a P e t cdot X geq e t cdot a leq frac mathrm E left e t cdot X right e t cdot a Kogda X yavlyaetsya summoj n sluchajnyh velichin X1 Xn dlya lyubogo t gt 0 displaystyle t gt 0 P X a e taE iet Xi displaystyle P X geq a leq e ta mathrm E left prod i e t cdot X i right V chastnosti optimiziruya po t i predpolagaya chto Xi nezavisimy my poluchaem P X a mint gt 0e ta iE etXi displaystyle P X geq a leq min t gt 0 e ta prod i mathrm E left e tX i right 1 Analogichno P X a P e tX e ta displaystyle P X leq a P left e tX geq e ta right i takim obrazom P X a mint gt 0eta iE e tXi displaystyle P X leq a leq min t gt 0 e ta prod i mathrm E left e tX i right Konkretnye znacheniya ocenok Chernova poluchayutsya vychisleniem E e t Xi displaystyle mathrm E left e t cdot X i right dlya konkretnyh velichin Xi displaystyle X i PrimerPust X1 Xn nezavisimye sluchajnye velichiny Bernulli summa kotoryh X i kazhdaya ravna 1 s veroyatnostyu p gt 0 5 displaystyle p gt 0 5 Dlya peremennoj Bernulli verno E et Xi 1 p e0 pet 1 p et 1 ep et 1 displaystyle mathrm E left e t cdot X i right 1 p e 0 pe t 1 p e t 1 leq e p e t 1 sledovatelno E et X en p et 1 displaystyle mathrm E left e t cdot X right leq e n cdot p e t 1 Dlya vsyakogo d gt 0 displaystyle delta gt 0 pri t ln 1 d gt 0 displaystyle t ln 1 delta gt 0 i a 1 d np displaystyle a 1 delta np poluchaem E et X ednp displaystyle mathrm E left e t cdot X right leq e delta np e ta 1 1 d 1 d np displaystyle e ta frac 1 1 delta 1 delta np i obshij sluchaj ocenki Chernova dayot 64 P X 1 d np ednp 1 d 1 d np ed 1 d 1 d np displaystyle P X geq 1 delta np leq frac e delta np 1 delta 1 delta np left frac e delta 1 delta 1 delta right np Veroyatnost odnovremennogo sversheniya bolee chem n 2 sobytij Xk 1 v tochnosti ravna P X gt n2 i n2 1n ni pi 1 p n i displaystyle P left X gt n over 2 right sum i lfloor tfrac n 2 rfloor 1 n binom n i p i 1 p n i Nizhnyuyu ocenku etoj veroyatnosti mozhno vychislit s pomoshyu neravenstva Chernova P X gt n2 1 e 12pn p 12 2 displaystyle P left X gt n over 2 right geq 1 e frac 1 2p n left p frac 1 2 right 2 V samom dele oboznachaya m np my poluchaem multiplikativnuyu formu ocenki Chernova sm nizhe ili Corollary 13 3 in Sinclair s class notes P X n2 P X 1 1 12p m e m2 1 12p 2 e n2p p 12 2 displaystyle begin aligned P left X leq left lfloor tfrac n 2 right rfloor right amp P left X leq left 1 left 1 tfrac 1 2p right right mu right amp leq e frac mu 2 left 1 frac 1 2p right 2 amp e frac n 2p left p frac 1 2 right 2 end aligned Etot rezultat dopuskaet raznoobraznye obobsheniya kak otmecheno nizhe Mozhno otmetit neskolko form ocenok Chernova ishodnuyu additivnuyu formu dayot ocenku dlya absolyutnoj oshibki ili bolee praktichnuyu multiplikativnuyu formu ogranichivaet oshibku po otnosheniyu k srednemu Additivnaya forma ocenka dlya absolyutnoj oshibki Sleduyushaya Teorema byla dokazana Teorema Chernova Hyofdinga Pust X1 Xn nezavisimye odinakovo raspredelyonnye sluchajnye velichiny prinimayushie znacheniya 0 1 Polozhim p E X i e gt 0 TogdaP 1n Xi p e pp e p e 1 p1 p e 1 p e n e D p e p n P 1n Xi p e pp e p e 1 p1 p e 1 p e n e D p e p n displaystyle begin aligned P left frac 1 n sum X i geq p varepsilon right leq left left frac p p varepsilon right p varepsilon left frac 1 p 1 p varepsilon right 1 p varepsilon right n amp e D p varepsilon parallel p n P left frac 1 n sum X i leq p varepsilon right leq left left frac p p varepsilon right p varepsilon left frac 1 p 1 p varepsilon right 1 p varepsilon right n amp e D p varepsilon parallel p n end aligned dd gdeD x y xln xy 1 x ln 1 x1 y displaystyle D x parallel y x ln frac x y 1 x ln left frac 1 x 1 y right dd Eto rashozhdenie Kulbaka Lejblera mezhdu sluchajnymi velichinami imeyushimi bernullievo raspredelenie s parametrami x i y sootvetstvenno Esli p 1 2 toP Xi gt np x exp x22np 1 p displaystyle P left sum X i gt np x right leq exp left frac x 2 2np 1 p right dd Bolee prostaya ocenka poluchaetsya oslableniem etoj teoremy ispolzuya neravenstvo D p e p 2e2 kotoroe sleduet iz vypuklosti D p e p i togo fakta chto d2de2D p e p 1 p e 1 p e 4 d2de2 2e2 displaystyle frac d 2 d varepsilon 2 D p varepsilon parallel p frac 1 p varepsilon 1 p varepsilon geq 4 frac d 2 d varepsilon 2 2 varepsilon 2 Etot rezultat yavlyaetsya chastnym sluchaem neravenstva Hyofdinga V nekotoryh sluchayah ispolzuyutsya ocenki D 1 x p p 14x2p 12 x 12 D x y 3 x y 22 2y x D x y x y 22y x y D x y x y 22x x y displaystyle begin aligned D 1 x p parallel p geq frac 1 4 x 2 p amp amp amp tfrac 1 2 leq x leq tfrac 1 2 6pt D x parallel y geq frac 3 x y 2 2 2y x 6pt D x parallel y geq frac x y 2 2y amp amp amp x leq y 6pt D x parallel y geq frac x y 2 2x amp amp amp x geq y end aligned bolee silnye pri p lt 1 8 Multiplikativnaya forma ocenka dlya otnositelnoj oshibki Multiplikativnaya ocenka Chernova Pust X1 Xn nezavisimye sluchajnye velichiny prinimayushie znacheniya 0 1 Ih summu oboznachim X matematicheskoe ozhidanie etoj summy oboznachim m Togda dlya vsyakogo d 0 displaystyle delta geq 0 P X 1 d m ed 1 d 1 d m displaystyle P X geq 1 delta mu leq left frac e delta 1 delta 1 delta right mu dd Analogichnym obrazom mozhno pokazat chto dlya lyubogo 0 lt d lt 1 displaystyle 0 lt delta lt 1 P X 1 d m e d 1 d 1 d m displaystyle P X leq 1 delta mu leq left frac e delta 1 delta 1 delta right mu Na praktike vysheprivedyonnaya formula chasto okazyvaetsya gromozdkoj poetomu ispolzuyutsya bolee slabye no udobnye ocenki P X 1 d m e d2m2 0 lt d lt 1 displaystyle P X leq 1 delta mu leq e frac delta 2 mu 2 qquad 0 lt delta lt 1 P X 1 d m e d2m2 d 0 d displaystyle P X geq 1 delta mu leq e frac delta 2 mu 2 delta qquad 0 leq delta kotorye poluchayutsya s pomoshyu neravenstva 2d2 d ln 1 d displaystyle frac 2 delta 2 delta leq ln 1 delta iz spiska logarifmicheskih neravenstv Ili eshyo bolee slaboe neravenstvo P X 1 d m e d2m3 0 lt d 1 displaystyle P X geq 1 delta mu leq e frac delta 2 mu 3 qquad 0 lt delta leq 1 PrilozheniyaOcenki Chernova imeyut prilozheniya v uravnoveshivanii mnozhestv i marshrutizacii paketov v razrezhennyh setyah Problema uravnovesheniya mnozhestva voznikaet pri proektirovanii statisticheskogo eksperimenta Kak pravilo pri proektirovanii statisticheskogo eksperimenta s zadannymi v etom eksperimente svojstvami uchastnikov nam neobhodimo razdelit uchastnikov na dve neperesekayushiesya gruppy tak chtoby kazhdoe svojstvo bylo naskolko eto vozmozhno sbalansirovano mezhdu dvumya gruppami Sm takzhe informaciyu v Probability and Computing Randomized Algorithms and Probabilistic Analysis Arhivnaya kopiya ot 16 aprelya 2021 na Wayback Machine Ocenki Chernova takzhe ispolzuyutsya dlya dostizheniya zhestkih granic v zadachah marshrutizacii s ispolzovaniem perestanovok Eto umenshaet peregruzhennost pri marshrutizacii v razrezhennyh setyah Sm podrobnee v Probability and Computing Randomized Algorithms and Probabilistic Analysis Arhivnaya kopiya ot 16 aprelya 2021 na Wayback Machine Takzhe ocenki Chernova nahodyat primenenie v teorii vychislitelnogo obucheniya dlya dokazatelstva togo chto obuchayushij algoritm approksimacionno po veroyatnosti korrekten To est s vysokoj veroyatnostyu etot algoritm imeet maluyu oshibku na dostatochno bolshom nabore trenirovochnyh dannyh Ocenki Chernova mogut byt effektivno ispolzovany dlya ocenki urovnya robastnosti prilozheniya algoritma posredstvom issledovaniya ego prostranstva vozmushenij pri pomoshi randomizacii Matrichnaya ocenka angl i angl ispolzovali ocenki Chernova dlya sluchajnyh velichin s matrichnymi znacheniyami Sleduyushuyu versiyu neravenstva mozhno najti v rabote Troppa Pust M1 Mt sluchajnye velichiny s matrichnymi znacheniyami takie chto Mi Cd1 d2 displaystyle M i in mathbb C d 1 times d 2 i E Mi 0 displaystyle mathbb E M i 0 Oboznachim M displaystyle lVert M rVert operator normy matricy M displaystyle M Esli neravenstvo Mi g displaystyle lVert M i rVert leq gamma pochti navernoe vypolneno dlya vseh i 1 t displaystyle i in 1 ldots t to dlya kazhdogo e gt 0 P 1t i 1tMi gt e d1 d2 exp 3e2t8g2 displaystyle P left left frac 1 t sum i 1 t M i right gt varepsilon right leq d 1 d 2 exp left frac 3 varepsilon 2 t 8 gamma 2 right Chtoby zaklyuchit chto otklonenie ot 0 ogranicheno velichinoj e s vysokoj veroyatnostyu nam nuzhno vybrat t displaystyle t kolichestvo obrazcov proporcionalnym logarifmu d1 d2 displaystyle d 1 d 2 V obshem sluchae zavisimost ot ln min d1 d2 displaystyle ln min d 1 d 2 neochevidna naprimer vozmyom diagonalnuyu sluchajnuyu matricu znakov razmernosti d d displaystyle d times d Operator normy summy t displaystyle t nezavisimyh obrazcov yavlyaetsya v tochnosti maksimalnym otkloneniem sredi d displaystyle d nezavisimyh sluchajnyh bluzhdanij dliny t displaystyle t Dlya togo chtoby dostich fiksirovannuyu granicu maksimalnogo otkloneniya s postoyannoj veroyatnostyu t displaystyle t dolzhno logarifmicheski vozrastat vmeste s d displaystyle d Sleduyushaya teorema poluchena v predpolozhenii chto M displaystyle M imeet nizkij rang dlya togo chtoby izbezhat zavisimosti ot razmernosti Teorema bez zavisimosti ot razmernosti Pust 0 lt e lt 1 i M displaystyle M sluchajnaya simmetricheskaya veshestvennaya matrica s E M 1 displaystyle mathrm E M leq 1 i M g displaystyle M leq gamma pochti navernoe Predpolozhim chto kazhdyj element nositelya M displaystyle M imeet rang samoe bolshee r displaystyle r Polozhim t W gln g e2 e2 displaystyle t Omega left frac gamma ln gamma varepsilon 2 varepsilon 2 right Esli r t displaystyle r leq t pochti navernoe to P 1t i 1tMi E M gt e 1poly t displaystyle P left left frac 1 t sum i 1 t M i mathrm E M right gt varepsilon right leq frac 1 mathbf poly t gde M1 Mt eto nezavisimye odinakovo raspredelennye kopii M displaystyle M Teorema dlya ne polnostyu sluchajnyh matric Ankit Garg In Tat Li Chzhao Song i angl poluchili ocenki tipa Chernova dlya summ matrichnoznachnyh sluchajnyh velichin semplirovannyh s pomoshyu sluchajnogo bluzhdaniya ekspandera Rasmus King i Chzhao Song poluchili ocenki tipa Chernova dlya summ matric laplasianov sluchajnyh derevev Variant semplingaSleduyushij variant ocenki Chernova mozhno ispolzovat dlya ocenki veroyatnosti togo chto bolshinstvo populyacii stanet v vyborke menshinstvom i naoborot Predpolozhim imeetsya obshaya populyaciya A displaystyle A i podpopulyaciya B A displaystyle B subseteq A Oboznachim otnositelnyj razmer podpopulyacii B A displaystyle B A cherez r displaystyle r Dopustim my vybiraem celoe kislo k displaystyle k i sluchajnuyu vyborku S A displaystyle S subset A razmera k displaystyle k Oboznachim otnositelnyj razmer podpopulyacii B S S displaystyle B cap S S cherez rS displaystyle r S Togda dlya kazhdoj doli d 0 1 displaystyle d in 0 1 P rS lt 1 d r lt exp r d2 k 2 displaystyle P left r S lt 1 d cdot r right lt exp left r cdot d 2 cdot k 2 right V chastnosti esli B displaystyle B eto bolshinstvo v A displaystyle A to est r gt 0 5 displaystyle r gt 0 5 to my mozhem ocenit sverhu veroyatnost togo chto B displaystyle B ostanetsya bolshinstvom v S rS gt 0 5 displaystyle S r S gt 0 5 vzyav d 1 12r displaystyle d 1 frac 1 2r P rS gt 0 5 gt 1 exp r 1 12r 2 k 2 displaystyle P left r S gt 0 5 right gt 1 exp left r cdot left 1 frac 1 2r right 2 cdot k 2 right Eta ocenka razumeetsya ne yavlyaetsya tochnoj Naprimer esli r 0 5 displaystyle r 0 5 to my poluchaem trivialnuyu ocenku P gt 0 displaystyle P gt 0 DokazatelstvaTeorema Chernova Hyofdinga additivnaya forma Pust q p e Vzyav a nq v formule 1 poluchaem P 1n Xi q inft gt 0E etXi etnq inft gt 0 E etXi etq n displaystyle P left frac 1 n sum X i geq q right leq inf t gt 0 frac E left prod e tX i right e tnq inf t gt 0 left frac E left e tX i right e tq right n Teper znaya chto Pr Xi 1 p Pr Xi 0 1 p imeem E etXi etq n pet 1 p etq n pe 1 q t 1 p e qt n displaystyle left frac mathrm E left e tX i right e tq right n left frac pe t 1 p e tq right n left pe 1 q t 1 p e qt right n Takim obrazom my mozhem legko vychislit minimum ispolzuya tehniku differencirovaniya ddt pe 1 q t 1 p e qt 1 q pe 1 q t q 1 p e qt displaystyle frac d dt left pe 1 q t 1 p e qt right 1 q pe 1 q t q 1 p e qt Priravnivaya poluchennoe vyrazhenie k nulyu i razreshaya uravnenie otnositelno t displaystyle t poluchaem 1 q pe 1 q t q 1 p e qt 1 q pet q 1 p displaystyle begin aligned 1 q pe 1 q t amp q 1 p e qt 1 q pe t amp q 1 p end aligned tak chto et 1 p q 1 q p displaystyle e t frac 1 p q 1 q p Sledovatelno t ln 1 p q 1 q p displaystyle t ln left frac 1 p q 1 q p right Poskolku q p e gt p to my vidim chto t gt 0 tak chto nasha ocenka udovletvoryaetsya po t Poluchiv t my mozhem vernutsya v predydushie uravneniya i najti ln pe 1 q t 1 p e qt ln e qt 1 p pet ln e qln 1 p q 1 q p ln 1 p peln 1 p1 q eln qp qln 1 p1 q qln qp ln 1 p p 1 p1 q qp qln 1 p1 q qln qp ln 1 p 1 q 1 q 1 p q1 q qln qp qln 1 p1 q ln 1 p1 q qln qp 1 q ln 1 p1 q D q p displaystyle begin aligned ln left pe 1 q t 1 p e qt right amp ln left e qt 1 p pe t right amp ln left e q ln left frac 1 p q 1 q p right right ln left 1 p pe ln left frac 1 p 1 q right e ln frac q p right amp q ln frac 1 p 1 q q ln frac q p ln left 1 p p left frac 1 p 1 q right frac q p right amp q ln frac 1 p 1 q q ln frac q p ln left frac 1 p 1 q 1 q frac 1 p q 1 q right amp q ln frac q p left q ln frac 1 p 1 q ln frac 1 p 1 q right amp q ln frac q p 1 q ln frac 1 p 1 q amp D q parallel p end aligned Teper my imeem zhelaemyj rezultat poskolku P 1n Xi p e e D p e p n displaystyle P left tfrac 1 n sum X i geq p varepsilon right leq e D p varepsilon parallel p n Dlya zaversheniya dokazatelstva v simmetricheskom sluchae my poprostu opredelim sluchajnuyu velichinu Yi 1 Xi primenim k nej tochno takoe zhe dokazatelstvo i prisoedinim rezultat k nashej ocenke Multiplikativnaya forma Polozhim Pr Xi 1 pi Soglasno formule 1 P X 1 d m inft gt 0E i 1netXi et 1 d m inft gt 0 i 1nE etXi et 1 d m inft gt 0 i 1n piet 1 pi et 1 d m displaystyle begin aligned P X geq 1 delta mu amp leq inf t gt 0 frac operatorname E left prod i 1 n e tX i right e t 1 delta mu 4pt amp inf t gt 0 frac prod i 1 n operatorname E left e tX i right e t 1 delta mu 4pt amp inf t gt 0 frac prod i 1 n left p i e t 1 p i right e t 1 delta mu end aligned Tretya strochka sleduet iz togo chto etXi displaystyle e tX i prinimaet znachenie et s veroyatnostyu pi i znachenie 1 s veroyatnostyu 1 pi Eto identichno vychisleniyam vyshe v dokazatelstve additivnoj formy Perepisav piet 1 pi displaystyle p i e t 1 p i kak pi et 1 1 displaystyle p i e t 1 1 i vspomniv chto 1 x ex displaystyle 1 x leq e x esli x gt 0 to neravenstvo strogoe my polozhim x pi et 1 displaystyle x p i e t 1 Tot zhe rezultat mozhno poluchit napryamuyu zamenyaya a v uravnenii dlya ocenki Chernova na 1 d m Takim obrazom P X 1 d m i 1nepi et 1 et 1 d m e et 1 i 1npi et 1 d m e et 1 met 1 d m displaystyle P X geq 1 delta mu leq frac prod i 1 n e p i e t 1 e t 1 delta mu frac e left e t 1 sum i 1 n p i right e t 1 delta mu frac e e t 1 mu e t 1 delta mu Esli my prosto polozhim t ln 1 d tak chto t gt 0 dlya d gt 0 to smozhem podstavit eto v poslednee vyrazhenie i najti e et 1 met 1 d m e 1 d 1 m 1 d 1 d m ed 1 d 1 d m displaystyle frac e e t 1 mu e t 1 delta mu frac e 1 delta 1 mu 1 delta 1 delta mu left frac e delta 1 delta 1 delta right mu chto i trebovalos dokazat Sm takzheNeravenstvo koncentracii merySsylkiEtot metod byl vpervye primenyon Sergeem Bernshtejnom v dokazatelstvah svyazannyh s angl Mitzenmacher Michael amp Upfal Eli Probability and Computing Randomized Algorithms and Probabilistic Analysis Cambridge University Press 2005 ISBN 978 0 521 83540 4 doi 10 1017 CBO9780511813603 005 Arhivnaya kopiya ot 16 aprelya 2021 na Wayback Machine Sinclair Alistair Class notes for the course Randomness and Computation neopr Fall 2011 Data obrasheniya 30 oktyabrya 2014 Arhivirovano iz originala 31 oktyabrya 2014 goda Hoeffding W 1963 Probability Inequalities for Sums of Bounded Random Variables PDF Journal of the American Statistical Association 58 301 13 30 doi 10 2307 2282952 JSTOR 2282952 Useful Inequalities logarithm neopr Data obrasheniya 13 maya 2020 Arhivirovano 19 avgusta 2020 goda M Kearns U Vazirani An Introduction to Computational Learning Theory Chapter 9 Appendix pages 190 192 MIT Press 1994 C Alippi Randomized Algorithms chapter in Intelligence for Embedded Systems Springer 2014 283ppISBN 978 3 319 05278 6 Ahlswede R Winter A 2003 Strong Converse for Identification via Quantum Channels angl 48 3 569 579 arXiv quant ph 0012127 doi 10 1109 18 985947 Tropp J 2010 User friendly tail bounds for sums of random matrices Foundations of Computational Mathematics 12 4 389 434 arXiv 1004 4389 doi 10 1007 s10208 011 9099 z Magen A Zouzias A 2011 Low Rank Matrix Valued Chernoff Bounds and Approximate Matrix Multiplication arXiv 1005 2724 cs DM Ankit Garg Yin Tat Lee Zhao Song Nikhil Srivastava A Matrix Expander Chernoff Bound Association for Computing MachineryNew YorkNYUnited States 2018 Arhivirovano 14 aprelya 2021 goda Rasmus Kyng Zhao Song A Matrix Chernoff Bound for Strongly Rayleigh Distributions and Spectral Sparsifiers from a few Random Spanning Trees FOCS 2018 1 oktyabrya Arhivirovano 22 aprelya 2021 goda Goldberg A V Competitive Auctions for Multiple Digital Goods Algorithms ESA 2001 A V Goldberg J D Hartline 2001 Vol 2161 P 416 ISBN 978 3 540 42493 2 doi 10 1007 3 540 44676 1 35 lemma 6 1 Posmotret grafiki granica kak funkciya ot r s menyayushimsya k Arhivnaya kopiya ot 4 yanvarya 2015 na Wayback Machine i granica kak funkciya ot k s menyayushimsya r Arhivnaya kopiya ot 4 yanvarya 2015 na Wayback Machine Obratites k privedennomu vyshe dokazatelstvu Dalnejshee chtenieChernoff H 1952 A Measure of Asymptotic Efficiency for Tests of a Hypothesis Based on the sum of Observations angl 23 4 493 507 doi 10 1214 aoms 1177729330 JSTOR 2236576 MR 0057518 Zbl 0048 11804 Chernoff H 1981 A Note on an Inequality Involving the Normal Distribution angl 9 3 533 535 doi 10 1214 aop 1176994428 JSTOR 2243541 MR 0614640 Zbl 0457 60014 Hagerup T Rub C 1990 A guided tour of Chernoff bounds angl 33 6 305 doi 10 1016 0020 0190 90 90214 I Nielsen F 2011 Chernoff information of exponential families arXiv 1102 2684 cs IT
