Достаточная статистика для параметра
определяющая некоторое семейство
распределений вероятности — статистика
такая, что условная вероятность выборки
при данном значении
не зависит от параметра
То есть выполняется равенство:
![{\displaystyle \mathbb {P} (X\in {\bar {X}}|\mathrm {T} (X)=t,\theta )=\mathbb {P} (X\in {\bar {X}}|\mathrm {T} (X)=t),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/79c77e55aeb053d566e830349157cff2d5c4364f)
Достаточная статистика
таким образом, содержит в себе всю информацию о параметре
, которая может быть получена на основе выборки X. Поэтому понятие достаточной статистики широко используется в теории оценки параметров.
Наиболее простой достаточной статистикой является сама выборка
, однако действительно важными являются случаи, когда размерность достаточной статистики значительно меньше размерности выборки, в частности, когда достаточная статистика выражается лишь несколькими числами.
Достаточная статистика
называется минимально достаточной, если для каждой достаточной статистики T существует неслучайная измеримая функция g, что
почти всюду.
Теорема факторизации даёт способ практического нахождения достаточной статистики для распределения вероятности. Она даёт достаточные и необходимые условия достаточности статистики и утверждение теорем иногда используется в качестве определения.
Пусть
— некоторая статистика, а
— условная функция плотности или функция вероятности (в зависимости от вида распределения) для вектора наблюдений X. Тогда
является достаточной статистикой для параметра
, тогда и только тогда, когда существуют такие измеримые функции
и
, что можно записать:
![{\displaystyle f_{\theta }(x)=h(x)\,g(\theta ,\mathrm {T} (x))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/590ffecdfccb93041d3d5d22cd184c8fce5f9753)
Ниже приведено доказательство для частного случая, когда распределение вероятностей является дискретным. Тогда
— Функция вероятности.
Пусть данная функция имеет факторизацию, как в формулировке теоремы, и
Тогда имеем:
![{\displaystyle {\begin{aligned}\mathbb {P} (X=x|\mathrm {T} (X)=t,\theta )&={\frac {\mathbb {P} (X=x|\theta )}{\mathbb {P} (\mathrm {T} (X)=t|\theta )}}&={\frac {h(x)\,g(\theta ,\mathrm {T} (x))}{\sum _{x:\mathrm {T} (x)=t}h(x)\,g(\theta ,\mathrm {T} (x))}}\\&={\frac {h(x)\,g(\theta ,t)}{\sum _{x:\mathrm {T} (x)=t}h(x)\,g(\theta ,t)}}&={\frac {h(x)\,}{\sum _{x:\mathrm {T} (x)=t}h(x)\,}}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/88e1a5b80a6a9954d9f3f3c2dfcc9f6f2e2e3776)
Отсюда видим, что условная вероятность вектора X при заданном значении статистики
не зависит от параметра и соответственно
— достаточная статистика.
Наоборот можем записать:
![{\displaystyle \mathbb {P} (X=x|\theta )=\mathbb {P} (X=x|\mathrm {T} (X)=t,\theta )\cdot \mathbb {P} (\mathrm {T} (X)=t|\theta ).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/15e62d169e37ba7aad0bb639c6419377d23ddfa2)
Из приведённого выше имеем, что первый множитель правой части не зависит от параметра
и его можно взять за функцию
из формулировки теоремы. Другой множитель является функцией от
и
и его можно взять за функцию
Таким образом, получена необходимая декомпозиция, что завершает доказательство теоремы.
Пусть
— последовательность случайных величин, что равны 1 с вероятностью
и равны 0 с вероятностью
(то есть, имеют распределение Бернулли). Тогда
![{\displaystyle \mathbb {P} (x_{1},\ldots x_{n}|p)=p^{\sum x_{i}}(1-p)^{n-\sum x_{i}}=p^{\mathrm {T} (x)}(1-p)^{n-\mathrm {T} (x)},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca1260a9def78d4f77c83e2249598765fa7e81be)
если взять
Тогда данная статистика является достаточной согласно теореме факторизации, если обозначить
![{\displaystyle g(p,\mathrm {T} (x_{1},\ldots x_{n}))=p^{\mathrm {T} (x_{1},\ldots x_{n})}(1-p)^{n-\mathrm {T} (x_{1},\ldots x_{n})},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ca32fe71939d2d078225f37d833065c3f0c84ef)
![{\displaystyle h(x_{1},\ldots x_{n})=1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/89c7c2eef5167a6a596b49ebc5135d17cdf52246)
Пусть
— последовательность случайных величин с распределением Пуассона. Тогда
![{\displaystyle \mathbb {P} (x_{1},\ldots x_{n}|\lambda )={e^{-\lambda }\lambda ^{x_{1}} \over x_{1}!}\cdot {e^{-\lambda }\lambda ^{x_{2}} \over x_{2}!}\cdots {e^{-\lambda }\lambda ^{x_{n}} \over x_{n}!}=e^{-n\lambda }\lambda ^{(x_{1}+x_{2}+\cdots +x_{n})}\cdot {1 \over x_{1}!x_{2}!\cdots x_{n}!}=e^{-n\lambda }\lambda ^{\mathrm {T} (x)}\cdot {1 \over x_{1}!x_{2}!\cdots x_{n}!}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06fa5317350ab9ac4ed08bd423384def3702ad39)
где
Данная статистика является достаточной согласно теореме факторизации, если обозначить
![{\displaystyle g(\lambda ,\mathrm {T} (x_{1},\ldots x_{n}))=e^{-n\lambda }\lambda ^{\mathrm {T} (x)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a2bb2452d9f3289999e07864393334219738ed5)
![{\displaystyle h(x_{1},\ldots x_{n})={1 \over x_{1}!x_{2}!\cdots x_{n}!}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/77764234936b631d2a85d4ef8ccd25e2c3a3c5c9)
Пусть
— последовательность равномерно распределённых случайных величин
. Для этого случая
![{\displaystyle \mathbb {P} (x_{1},\ldots x_{n}|a,b)=\left(b-a\right)^{-n}\mathbf {1} _{\{a\,\leq \,\min _{1\leq i\leq n}X_{i}\}}\mathbf {1} _{\{\max _{1\leq i\leq n}X_{i}\,\leq \,b\}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ecdfe27ce3cedb117db83d29defdfcdd2398bf0c)
Отсюда следует, что статистика
является достаточной.
Для случайных величин
с нормальным распределением
достаточной статистикой будет
- Для достаточной статистики T и биективного отображения
статистика
тоже является достаточной.
- Если
— статистическая оценка некоторого параметра
— некоторая достаточная статистика и
то
является лучшей оценкой параметра в смысле среднеквадратичного отклонения, то есть выполняется неравенство
![{\displaystyle {\textrm {E}}[(\delta _{1}(X)-\theta )^{2}]\leq {\textrm {E}}[(\delta (X)-\theta )^{2}]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8d0065b7f179006627a4134af41d5d07c29bd073)
- причём равенство достигается лишь когда
является измеримой функцией от T. (Теорема Рао — Блэквелла — Колмогорова)
- Из предыдущего получается, что оценка может быть оптимальной в смысле среднеквадратичного отклонения лишь когда она является измеримой функцией минимальной достаточной статистики.
- Если статистика
является достаточной и полной (то есть, из того, что
следует, что
), то произвольная измеримая функция от неё является оптимальной оценкой своего математического ожидания.
- Kholevo, A.S. (2001), «Sufficient statistic», in Hazewinkel, Michiel, Encyclopaedia of Mathematics, Springer, ISBN 978-1-55608-010-4
- Lehmann, E. L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. Chapter 4. ISBN 0-387-98502-6.
- Леман Э. Теория точечного оценивания. — М.: Наука, 1991. — 448 с. — ISBN 5-02-013941-6.
![Перейти к шаблону «External links»](//upload.wikimedia.org/wikipedia/commons/thumb/c/c9/Wikipedia_interwiki_section_gear_icon.svg/14px-Wikipedia_interwiki_section_gear_icon.svg.png) Ссылки на внешние ресурсы |
---|
| |
---|