En estadística, el llindar de Cramér-Rao (abreujada CRB per les seves sigles de l'anglès) o llindar inferior de Cramér-Rao (CRLB), anomenat així en honor de Harald Cramér i Calyampudi Radhakrishna Rao, expressa una cota inferior per a la variància d'un estimador no esbiaixat, basat en la informació de Fisher.[1][2][3]
Estableix que la inversa multiplicativa de la informació de Fisher d'un paràmetre
,
, és una cota inferior per a la variància d'un estimador no esbiaixat del paràmetre (denotat mitjançant
).
és la funció de versemblança.
![{\displaystyle \mathrm {var} \left({\widehat {\theta }}\right)\geq {\frac {1}{{\mathcal {I}}(\theta )}}={\frac {1}{\mathrm {E} \left[\left[{\frac {\partial }{\partial \theta }}\log f(X;\theta )\right]^{2}\right]}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ce0b9a3ebb212ecae0e9d7efae1f0d1fa52c0fb3)
En alguns casos, no existeix un estimador no esbiaixats que pugui aconseguir aquest llindar inferior.
A aquesta cota la hi coneix també com la desigualtat de Cramér-Rao o com la desigualtat d'informació.
La cota depèn de dues condicions de regularitat febles de la funció de densitat de probabilitat,
, i de l'estimador :
- La informació de Fisher sempre està definida; en altres paraules, per a tot
tal que
,

- és finit.
- Les operacions d'integració pel que fa a x i de diferenciació pel que fa a poden intercanviar-se en l'esperança de ; és a dir,


![{\displaystyle {\frac {\partial }{\partial \theta }}\left[\int T(x)f(x;\theta )\,dx\right]=\int T(x)\left[{\frac {\partial }{\partial \theta }}f(x;\theta )\right]\,dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8d48231af2974fc0e6c710114fedb7a43ba4bff9)
- sempre que el membre dret de l'equació sigui finit.
En alguns casos, un estimador esbiaixat pot tenir tant variància com a error quadràtic mig per sota de la cota inferior de Cramér-Rao (la cota inferior s'aplica solament a estimadors no esbiaixats).
Si s'estén la segona condició de regularitat a la segona derivada, llavors es pot usar una forma alternativa de la informació de Fisher per obtenir una nova desigualtat de Cramér-Rao
![{\displaystyle \mathrm {var} \left({\widehat {\theta }}\right)\geq {\frac {1}{{\mathcal {I}}(\theta )}}={\frac {1}{-\mathrm {E} \left[{\frac {d^{2}}{d\theta ^{2}}}\log f(X;\theta )\right]}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e0aa870f996dda10727cfa428d5dac27545cf5a9)
En alguns casos pot resultar més senzill prendre l'esperança pel que fa a la segona derivada que prendre-la respecte del quadrat de la primera derivada.
Distribució normal multivariada
[modifica]
Pel cas d'una sistribució normal multivariant de dimensió d

amb la funció de densitat de probabilitat

la matriu d'informació de Fisher té les entrades

on
és la traça de la matriu.
En particular, si
és soroll blanc gaussià (una mostra d'
observacions independents) amb variança coneguda
, és a dir,
![{\displaystyle w[n]\sim \mathbb {N} _{N}\left({\boldsymbol {\mu }}(\theta ),\sigma ^{2}{\mathcal {I}}\right),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f3da672024d3fbc7e63e8ffbc1548664a8b355a)
i
és un escalar, aleshores la matriu d'informació de Fisher és de dimensió 1 × 1

i per tant el llindar de Cramér-Rao és

- Kay, Steven M. Statistical Signal Processing, Volume I: Estimation Theory. Prentice Hall, 1993, p. ch. 3. ISBN 0-13-345711-7.
- FandPLimitTool Arxivat 2012-12-15 at Archive.is un programa que calcula la informació de Fisher i el llindar inferior de Cramér-Rao en l'aplicació específica de la macroscòpica d'una única molècula.