Loi bêta
Densité de probabilité
Fonction de répartition
Paramètres
α
>
0
{\displaystyle \alpha >0}
forme (réel )
β
>
0
{\displaystyle \beta >0}
forme (réel)
Support
x
∈
]
0
;
1
[
{\displaystyle x\in ]0;1[\!}
Densité de probabilité
x
α
−
1
(
1
−
x
)
β
−
1
B
(
α
,
β
)
{\displaystyle {\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}\!}
Fonction de répartition
I
x
(
α
,
β
)
{\displaystyle I_{x}(\alpha ,\beta )\!}
Espérance
α
α
+
β
{\displaystyle {\frac {\alpha }{\alpha +\beta }}\!}
Mode
α
−
1
α
+
β
−
2
{\displaystyle {\frac {\alpha -1}{\alpha +\beta -2}}\!}
pour
α
>
1
,
β
>
1
{\displaystyle \alpha >1,\beta >1}
Variance
α
β
(
α
+
β
)
2
(
α
+
β
+
1
)
{\displaystyle {\frac {\alpha \beta }{(\alpha +\beta )^{2}(\alpha +\beta +1)}}\!}
Asymétrie
2
(
β
−
α
)
α
+
β
+
1
(
α
+
β
+
2
)
α
β
{\displaystyle 2\,{\frac {(\beta -\alpha ){\sqrt {\alpha +\beta +1}}}{(\alpha +\beta +2){\sqrt {\alpha \beta }}}}}
Kurtosis normalisé
6
(
β
−
α
)
2
(
α
+
β
+
1
)
−
α
β
(
α
+
β
+
2
)
α
β
(
α
+
β
+
2
)
(
α
+
β
+
3
)
{\displaystyle 6\,{\tfrac {(\beta -\alpha )^{2}(\alpha +\beta +1)-\alpha \beta (\alpha +\beta +2)}{\alpha \beta (\alpha +\beta +2)(\alpha +\beta +3)}}\!}
Fonction génératrice des moments
1
F
1
(
α
;
α
+
β
;
t
)
{\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;t)\!}
=
∑
k
=
0
∞
(
B
(
α
+
k
,
β
)
B
(
α
,
β
)
)
t
k
k
!
{\displaystyle \sum _{k=0}^{\infty }\left({\frac {\mathrm {B} (\alpha +k,\beta )}{\mathrm {B} (\alpha ,\beta )}}\right){\frac {t^{k}}{k!}}}
Fonction caractéristique
1
F
1
(
α
;
α
+
β
;
i
t
)
{\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;i\,t)\!}
modifier
Dans la théorie des probabilités et en statistiques , la loi bêta est une famille de lois de probabilités continues, définies sur ]0, 1[ , paramétrée par deux paramètres de forme , typiquement notés α (alpha ) et β (bêta ). C'est un cas spécial de la loi de Dirichlet , avec seulement deux paramètres.
Admettant une grande variété de formes, elle permet de modéliser de nombreuses distributions à support fini.
Elle est par exemple utilisée dans la méthode PERT , à ne pas confondre avec l'acronyme PERT , autre nom pour désigner une distribution bêta dans le cas
α
>
1
,
β
>
1
{\displaystyle \alpha >1,\beta >1}
mais où les paramètres
α
,
β
{\displaystyle \alpha ,\beta }
sont exprimés à l'aide d'un mode
m
{\displaystyle m}
et d'un paramètre de forme
λ
{\displaystyle \lambda }
.
Fixons les deux paramètres (α , β ) dans l'intervalle ]0, +∞[. La densité de probabilité de la loi bêta vaut 0 partout sauf sur ]0, 1[. Pour tout
x
∈
]
0
,
1
[
{\displaystyle x\in ]0,1[}
, la fonction de densité vaut :
f
(
x
;
α
,
β
)
=
c
o
n
s
t
a
n
t
e
⋅
x
α
−
1
(
1
−
x
)
β
−
1
{\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&=\mathrm {constante} \cdot x^{\alpha -1}(1-x)^{\beta -1}\end{aligned}}}
La constante multiplicative permet à la densité de s'intégrer à l'unité. On note donc que α – 1 apparaît comme puissance de
x
{\displaystyle x}
et β – 1 apparaît comme puissance de
(
1
−
x
)
{\displaystyle (1-x)}
.
Plus précisément, la constante vaut
1
∫
0
1
u
α
−
1
(
1
−
u
)
β
−
1
d
u
=
1
B
(
α
,
β
)
{\displaystyle {\frac {1}{\int _{0}^{1}u^{\alpha -1}(1-u)^{\beta -1}\,\mathrm {d} u}}={\frac {1}{\mathrm {B} (\alpha ,\beta )}}}
où Β est la fonction bêta . On rappelle que
B
(
α
,
β
)
=
Γ
(
α
)
Γ
(
β
)
Γ
(
α
+
β
)
{\displaystyle \mathrm {B} (\alpha ,\beta )={\frac {\Gamma (\alpha )\,\Gamma (\beta )}{\Gamma (\alpha +\beta )}}}
où Γ est la fonction gamma . Pour résumer on a :
f
(
x
;
α
,
β
)
=
x
α
−
1
(
1
−
x
)
β
−
1
∫
0
1
u
α
−
1
(
1
−
u
)
β
−
1
d
u
=
Γ
(
α
+
β
)
Γ
(
α
)
Γ
(
β
)
x
α
−
1
(
1
−
x
)
β
−
1
=
1
B
(
α
,
β
)
x
α
−
1
(
1
−
x
)
β
−
1
{\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&={\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\displaystyle \int _{0}^{1}u^{\alpha -1}(1-u)^{\beta -1}\,du}}\\[6pt]&={\frac {\Gamma (\alpha +\beta )}{\Gamma (\alpha )\Gamma (\beta )}}\,x^{\alpha -1}(1-x)^{\beta -1}\\[6pt]&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}x^{\alpha -1}(1-x)^{\beta -1}\end{aligned}}}
La fonction de répartition est
F
(
x
;
α
,
β
)
=
B
x
(
α
,
β
)
B
(
α
,
β
)
=
I
x
(
α
,
β
)
{\displaystyle F(x;\alpha ,\beta )={\frac {\mathrm {B} _{x}(\alpha ,\beta )}{\mathrm {B} (\alpha ,\beta )}}=I_{x}(\alpha ,\beta )\!}
où
B
x
(
α
,
β
)
:=
∫
0
x
u
α
−
1
(
1
−
u
)
β
−
1
d
u
.
{\displaystyle \mathrm {B} _{x}(\alpha ,\beta ):=\int _{0}^{x}u^{\alpha -1}\,(1-u)^{\beta -1}\,du.}
est la fonction bêta incomplète et
I
x
(
α
,
β
)
{\displaystyle I_{x}(\alpha ,\beta )}
est la fonction bêta incomplète régularisée.
La fonction génératrice des moments est
1
F
1
(
α
;
α
+
β
;
t
)
{\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;t)}
où 1 F 1 désigne la fonction hypergéométrique confluente , aussi notée
M
(
α
;
α
+
β
;
t
)
{\displaystyle {}M(\alpha ;\alpha +\beta ;t)}
.
Sa fonction caractéristique est
1
F
1
(
α
;
α
+
β
;
i
t
)
{\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;\mathrm {i} t)}
La densité de la loi bêta peut prendre différentes formes selon les valeurs des deux paramètres:
α
<
1
,
β
<
1
{\displaystyle \alpha <1,\ \beta <1}
est en forme de U (graphe rouge) ;
α
<
1
,
β
≥
1
{\displaystyle \alpha <1,\ \beta \geq 1}
ou
α
=
1
,
β
>
1
{\displaystyle \alpha =1,\ \beta >1}
est strictement décroissant (graphe bleu) ;
α
=
1
,
β
>
2
{\displaystyle \alpha =1,\ \beta >2}
est strictement convexe ;
α
=
1
,
β
=
2
{\displaystyle \alpha =1,\ \beta =2}
est une droite ;
α
=
1
,
1
<
β
<
2
{\displaystyle \alpha =1,\ 1<\beta <2}
est strictement concave ;
α
=
1
,
β
=
1
{\displaystyle \alpha =1,\ \beta =1}
est la loi uniforme continue ;
α
=
1
,
β
<
1
{\displaystyle \alpha =1,\ \beta <1}
ou
α
>
1
,
β
≤
1
{\displaystyle \alpha >1,\ \beta \leq 1}
est strictement croissant (graphe vert) ;
α
>
2
,
β
=
1
{\displaystyle \alpha >2,\ \beta =1}
est strictement convexe ;
α
=
2
,
β
=
1
{\displaystyle \alpha =2,\ \beta =1}
est une droite ;
1
<
α
<
2
,
β
=
1
{\displaystyle 1<\alpha <2,\ \beta =1}
est strictement concave ;
α
>
1
,
β
>
1
{\displaystyle \alpha >1,\ \beta >1}
est unimodal (graphes noir et violet).
Qui plus est, si
α
=
β
{\displaystyle \alpha =\beta }
alors la densité est symétrique autour de 1/2 (graphes rouge et violet).
La loi bêta appartient à la famille exponentielle , ce qui signifie que sa fonction de densité peut s'écrire sous la forme
f
X
(
x
;
α
,
β
)
=
b
(
x
)
e
η
(
α
,
β
)
⋅
T
(
x
)
−
A
(
α
,
β
)
{\displaystyle f_{X}(x;\alpha ,\beta )=b(x)\,\mathrm {e} ^{\eta (\alpha ,\beta )\cdot T(x)-A(\alpha ,\beta )}}
où
{
b
(
x
)
=
1
x
(
1
−
x
)
η
(
α
,
β
)
=
(
α
,
β
)
T
(
x
)
=
(
log
x
,
log
(
1
−
x
)
)
A
(
α
,
β
)
=
log
Γ
(
α
)
+
log
Γ
(
β
)
−
log
Γ
(
α
+
β
)
{\displaystyle \left\{{\begin{array}{ll}b(x)&={\frac {1}{x(1-x)}}\\\eta (\alpha ,\beta )&=\left(\alpha ,\beta \right)\\T(x)&=\left(\log x,\log(1-x)\right)\\A(\alpha ,\beta )&=\log \Gamma (\alpha )+\log \Gamma (\beta )-\log \Gamma \left(\alpha +\beta \right)\\\end{array}}\right.}
En vertu de l'appartenance à la famille exponentielle, sa fonction de vraisemblance est concave[ 1] , permettant de fait, d'utiliser des algorithmes d'optimisation convexe pour estimer ses paramètres par des techniques de Maximum de vraisemblance . De plus, la loi bêta possède une distribution conjuguée comme toutes les lois de la famille exponentielle.
La loi bêta peut se généraliser en :
Soit la moyenne empirique
x
¯
=
1
N
∑
i
=
1
N
x
i
{\displaystyle {\bar {x}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}}
et la variance empirique .
v
=
1
N
∑
i
=
1
N
(
x
i
−
x
¯
)
2
{\displaystyle v={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\bar {x}})^{2}}
La méthode des moments fournit les estimations suivantes[ 2] :
α
^
=
x
¯
(
x
¯
(
1
−
x
¯
)
v
−
1
)
,
{\displaystyle {\hat {\alpha }}={\bar {x}}\left({\frac {{\bar {x}}(1-{\bar {x}})}{v}}-1\right),}
β
^
=
(
1
−
x
¯
)
(
x
¯
(
1
−
x
¯
)
v
−
1
)
.
{\displaystyle {\hat {\beta }}=(1-{\bar {x}})\left({\frac {{\bar {x}}(1-{\bar {x}})}{v}}-1\right).}
Il est également possible d'estimer les paramètres par Maximum de vraisemblance . Il n'existe pas de formule dans ce cas et le recours à des algorithmes d'optimisation est nécessaires. Le résultat obtenu est proche de celui fourni par la méthode des moments.
Si
X
{\displaystyle X}
a une distribution bêta, alors la variable aléatoire
T
=
X
1
−
X
{\displaystyle T={\frac {X}{1-X}}}
est distribuée selon la loi bêta prime .
La loi bêta-binomiale est la loi conjuguée de la loi bêta.
Si
X
∼
U
(
0
;
1
)
{\displaystyle X\sim \operatorname {U} (0;1)}
est une variable suivant la loi uniforme continue , alors
X
r
∼
Beta
(
1
/
r
,
1
)
{\displaystyle X^{r}\sim \operatorname {Beta} (1/r,1)\ }
(pour tout
r
>
0
{\displaystyle r>0}
).
Si
X
∼
Beta
(
α
,
1
)
{\displaystyle X\sim \operatorname {Beta} (\alpha ,1)}
, alors
−
ln
(
X
)
∼
Exp
(
α
)
{\displaystyle -\ln(X)\sim \operatorname {Exp} (\alpha )}
suit une loi exponentielle .
Si
X
{\displaystyle X}
et
Y
{\displaystyle Y}
sont indépendamment distribués selon une loi Gamma , de paramètres
(
α
,
θ
)
{\displaystyle (\alpha ,\theta )}
et
(
β
,
θ
)
{\displaystyle (\beta ,\theta )}
respectivement, alors la variable aléatoire
X
X
+
Y
{\displaystyle {\frac {X}{X+Y}}}
est distribuée selon une loi
B
e
t
a
(
α
,
β
)
{\displaystyle \mathrm {Beta} (\alpha ,\beta )}
.
La k -ème statistique d'ordre d'un n -échantillon de lois uniformes
U
(
0
;
1
)
{\displaystyle \operatorname {U} (0;1)\,}
suit la loi
Beta
(
k
,
n
−
k
+
1
)
{\displaystyle \operatorname {Beta} (k,n-k+1)\ }
.
La loi
Beta
(
1
/
2
,
1
/
2
)
{\displaystyle \operatorname {Beta} (1/2,1/2)}
est appelée loi arc sinus .
La loi bêta peut s'interpréter comme marginale d'une loi de Dirichlet . En effet, si
(
X
1
,
…
,
X
n
)
∼
Dirichlet
(
α
1
,
…
,
α
n
)
{\displaystyle (X_{1},\dots ,X_{n})\sim \operatorname {Dirichlet} (\alpha _{1},\dots ,\alpha _{n})}
alors
X
i
∼
Beta
(
α
i
,
∑
k
=
1
n
α
k
−
α
i
)
.
{\displaystyle X_{i}\sim \operatorname {Beta} \left(\alpha _{i},\sum _{k=1}^{n}\alpha _{k}-\alpha _{i}\right).}
La loi bêta apparaît naturellement dans une expérience d'urnes , donnée par George Pólya dans un article de 1930, Sur quelques points de la théorie des probabilités [ 3] . Il décrit l'expérience suivante : on se donne une urne contenant initialement r boules rouges et b boules bleues, on tire une boule dans l'urne, puis on la remet dans l'urne avec une deuxième boule de même couleur. Alors la proportion de boules rouges tend vers une variable aléatoire de loi Βeta(r , b ) , et, inversement, la proportion de boules bleues tend vers une variable aléatoire de loi Βeta(b , r ) .
Ce processus étudié par Pólya est ce que l'on appelle aujourd'hui un processus renforcé .
↑ (en) Siva Balakrishnan, Intermediate Statistics: lecture 13 (Lecture), 2019 , 7 p. (lire en ligne ) , p. 13-3
↑ (en) « Beta distribution with given mean and variance », 7 avril 2021
↑ George Pólya, « Sur quelques points de la théorie des probabilités », Annales de l'Institut Henri Poincaré , 1930 , p. 150 (lire en ligne , consulté le 5 décembre 2018 )