Неравенство Хёфдинга даёт верхнюю границу вероятности того, что сумма случайных величин отклоняется от своего математического ожидания.
Неравенство Хёфдинга было доказано Василием Хёфдингом[англ.] в 1963 году.[1]
Неравенство Хёфдинга является частным случаем неравенства Азумы и более общим случаем неравенства Бернштейна[англ.], доказанного Сергеем Бернштейном в 1923 году. Они также являются частными случаями неравенства МакДиармида.
Неравенство Хефдинга может быть применено к важному частному случаю одинаково распределенных бернуллиевских случайных величин, и, как неравенство, часто используется в комбинаторике и информатике. Рассматриваем смещённую монету, у которой орёл выпадает с вероятностью
и решка — с вероятностью
.
Мы бросаем монету
раз.
Математическое ожидание того, сколько раз монета упадет орлом, есть
. Далее, вероятность того, что монета упадет орлом не более
раз, может быть точно оценена выражением:

В случае
для некоторого
неравенство Хёфдинга ограничивает эту вероятность выражением, которое экспоненциально убывает от
:

Похожим образом, в случае
для некоторого
неравенство Хёфдинга ограничивает вероятность того, что выпадет не меньше
орлов, чем ожидаемо, выражением:

Таким образом, неравенство Хёфдинга означает, что число выпадений орла, концентрируется вокруг среднего, с экспоненциально малым хвостом.

Пусть
— независимые случайные величины.
Положим, что
являются почти достоверно ограниченными, то есть, положим для
, что:
![{\displaystyle \Pr(X_{i}\in [a_{i},b_{i}])=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9af9259a76be1722ad3b8418b0ee0c08820a98d9)
Мы определяем эмпирическое среднее этих переменных:

Теорема 2 из Hoeffding (1963), доказывает неравенства:
![{\displaystyle \Pr({\overline {X}}-\mathrm {E} [{\overline {X}}]\geqslant t)\leqslant \exp \left(-{\frac {2t^{2}n^{2}}{\sum _{i=1}^{n}(b_{i}-a_{i})^{2}}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f5d509b0b28ca0848edf854fdcc0d067c5f9f1f1)
![{\displaystyle \Pr(|{\overline {X}}-\mathrm {E} [{\overline {X}}]|\geqslant t)\leqslant 2\exp \left(-{\frac {2t^{2}n^{2}}{\sum _{i=1}^{n}(b_{i}-a_{i})^{2}}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/856605af1201092ff6becd66d7f953843d4af4cc)
которые верны для всех положительных значений t. Здесь
является мат.ожиданием
.
Заметим, что неравенство также верно, если
были получены с использованием выборки без замены, в данном случае случайные переменные не являются больше независимыми. Доказательство этого утверждения можно найти в статье Хёфдинга. Для несколько лучших оценок границ в случае выборки без замены, см., например, статью, [2].