Willard Gibbs.
En théorie de l'information , l'inégalité de Gibbs , nommée en l'honneur de Willard Gibbs , porte sur l'entropie d'une distribution de probabilités . Elle sert à prouver de nombreux résultats en théorie de l'information.
Soient deux distributions de probabilités
P
=
{
p
1
,
p
2
,
.
.
.
p
n
}
{\displaystyle P=\{p_{1},p_{2},...p_{n}\}}
et
Q
=
{
q
1
,
q
2
,
.
.
.
,
q
n
}
{\displaystyle Q=\{q_{1},q_{2},...,q_{n}\}}
, alors
−
∑
i
=
1
n
p
i
log
(
p
i
)
≤
−
∑
i
=
1
n
p
i
log
(
q
i
)
{\displaystyle -\sum _{i=1}^{n}p_{i}\log(p_{i})\leq -\sum _{i=1}^{n}p_{i}\log(q_{i})}
.
Le cas d'égalité se produit si et seulement si
p
i
=
q
i
{\displaystyle p_{i}=q_{i}}
pour tout
i
{\displaystyle i}
.
D'après l'inégalité de Jensen , puisque le logarithme est concave,
∑
i
=
0
n
p
i
log
(
q
i
p
i
)
≤
log
(
∑
i
=
0
n
p
i
q
i
p
i
)
=
log
(
1
)
=
0
{\displaystyle \sum _{i=0}^{n}p_{i}\log \left({\frac {q_{i}}{p_{i}}}\right)\leq \log \left(\sum _{i=0}^{n}p_{i}{\frac {q_{i}}{p_{i}}}\right)=\log(1)=0}
.
Cela équivaut à
−
∑
i
=
0
n
p
i
log
(
p
i
)
≤
−
∑
i
=
0
n
p
i
log
(
q
i
)
{\displaystyle -\sum _{i=0}^{n}p_{i}\log(p_{i})\leq -\sum _{i=0}^{n}p_{i}\log(q_{i})}
et montre donc l'inégalité.
Comme le logarithme n'est pas linéaire, le cas d'égalité dans l'inégalité de Jensen , et à fortiori dans la première inégalité ci-dessus, est réalisé si et seulement si tous les
p
i
/
q
i
{\displaystyle p_{i}/q_{i}}
sont égaux, ce qui équivaut au fait que
p
i
=
q
i
{\displaystyle p_{i}=q_{i}}
pour tout
i
{\displaystyle i}
car ce sont des distributions de probabilités.