A becsléselmélet a matematikai statisztika egyik jelentős területe, mely egy adott minta alapján a sokaságra vonatkozóan állapít meg érték(ek)et. A regressziószámításban a lineáris regresszió meghatározásában játszik szerepet. A hétköznapi életben korlátozott észlelési vagy mintavételezési lehetőségek esetén van jelentősége a megalapozott becsléseknek. A paraméterbecslés során valószínűség-eloszlások jellemző mennyiségeit határozzák meg, illetve műszaki területeken jellemző az alsó és felső határ vagyis a konfidenciaintervallum becslése.
A becsléselmélet lényege hogy egy lehetőleg könnyen előállítható becslést nyújtson. A becslést gyakran egy optimális állapot megállapítására alkalmazzák, amely nem minden esetben lehetséges.
A döntéselméletben a legvalószínűbb vagy legkedvezőbb lehetőségek meghatározása a cél. A lehetőségek bekövetkeztét trendek, valamint múltbeli tapasztalatok alapján becsülik meg (összeegyeztethető a paraméterek és minták fogalmával).
A statisztikai döntéselmélet minimax elve szerint az az optimális választás, ami minimalizálja a maximális veszteséget. Felfogható a minimális nyereség maximalizálásaként is. Legyen paraméter, és legyen a paraméter becslése . Jelölje a rizikófüggvényt, ami rendszerint a veszteségfüggvény integrálja. A becslés minimax, ha
A döntéselmélet egy alternatív elmélete a Bayes-becslés használatán alapul, ami a a becsülni kívánt paraméter feltételezett a priori eloszlásának ismeretében minimalizálja az a posteriori rizikót:
A játékelmélet a matematika egyik interdiszciplináris ága, azzal a kérdéssel foglalkozik, hogy mi az optimális viselkedés olyan helyzetekben, ahol minden résztvevő döntéseinek eredményét befolyásolja a többiek lehetséges választása, vagyis a játékelmélet a stratégiai problémák elmélete. A becsléselmélet néhány játékelméleti aspektusa:
A természettudományos kutatások során nélkülözhetetlen az induktív logika alkalmazása: a megfigyelésekből nyert adatokból kell az adott jelenséget kiváltó okra következtetni, ennek helyességét valószínűsíteni. Thomas Bayes jegyzetei alapján Richard Price (1763) majd továbbfejlesztve Pierre-Simon de Laplace (1812) tettek közzé úttörőként induktív logikát alkalmazó statisztikai eljárást.
A Bayes-tétel a valószínűségszámításban egy feltételes valószínűség és a fordítottja között állít fel kapcsolatot.
A tétel legegyszerűbb formájában azt állítja, hogy ha ismert az A és B események valószínűsége, és a P(B|A) feltételes valószínűség, akkor
P(A)-t az A esemény a priori, P(A|B)-t az a posteriori valószínűségének is nevezik; a szokásos értelmezésben A valamiféle hipotézis, B egy megfigyelhető esemény, és tétel azt adja meg, hogyan erősíti vagy gyengíti az esemény megfigyelése a hipotézis helyességébe vetett hitünket.
A tétel hasonló formában általánosítható sűrűségfüggvényekre és valószínűségi mértékekre is.
A Bayes-döntés optimális vagyis a hibavalószínűsége minimális.
Legyen a döntés tartománya olyan, hogy -ra teljesüljön -nél. pont akkor eleme a döntési tartománynak, ha megfigyelés esetén az hipotézis feltételes valószínűsége a legnagyobb. A -ok páronként diszjunktaknak választhatók, például úgy, hogy nem egyértelmű esetben az alacsonyabb indexűt választják. Ekkor a döntés függvény:
Ezt nevezik Bayes-döntésnek, vagy maximum a posteriori döntésnek.
Bayes-tételén alapuló Bayes-statisztika átfogóbb szemléletével az 1940-es évektől kezdődően[1] egyre nagyobb teret hódít. A klasszikus statisztika követői közül többen bírálták – elsősorban a külső információk felhasználása, és szubjektív valószínűségek megjelenése miatt. A Bayes-statisztika minden fellelhető információt felhasznál, és ezeket kombinálja a meglévő mintavétel eredményével. A szubjektív benyomások egzakt kezelésére kínál megoldást. A bayes szemléletű becslésnél a becsülni kívánt paraméter nem egy rögzített érték, hanem valószínűségi változó.
A bayesi statisztika tartalmazza speciális esetként (a külső információk teljes hiánya) a klasszikus elméletet. A Bayes-tételnek az átfogalmazott formája mindenféle statisztikai modellnél alkalmazható, az összefüggés ugyanakkor áttekinthető. Éppen emiatt (egyszerűség és az egységesség) egyre szélesebb körű az alkalmazása.
A Legkisebb négyzetek módszer alkalmazása nem feltételezi a sokasági eloszlás ismeretét, de azt igen, hogy formalizált összefüggésünk van a jelenség leírására, amit modellnek neveznek. A legkisebb négyzetek módszere ennek a modellnek a paramétereit úgy határozza meg, hogy a tényleges és becsült paraméterrel illesztett modellek négyzetes eltérése, azaz az eltérések négyzetösszege minimális legyen. A módszer a tényleges megfigyelések és a (minta alapján) becsült modell négyzetes távolságát minimálja. A négyzetösszeg minimálás eszköze a szélsőérték-számítás.
A Momentumok módszere általában az eloszlások paramétereinek becslésére szolgál, akkor alkalmazzák ha a minta eloszlásának sok ismeretlen paramétere van. Egy ismert típusú sokasági eloszlás paraméterei és momentumai függvényszerű kapcsolatba hozhatók egymással. A momentumok módszere olyan sokasági paramétereket keres, amelyek mellett a sokaság és a minta megfelelő paraméterei megegyeznek. Ekkor a tapasztalati momentumok a mintából kiszámíthatóak, mivel egyenlővé tehetőek a paraméterekkel kifejezett sokasági momentumokkal (k-adik), majd az említett összefüggésből következtetni lehet a sokasági paraméterekre. A módszer konzisztens becslőfüggvényeket eredményez.
A számítás lépései: A centrális határeloszlás-tétel alapján a minta k-dik tapasztalati momentuma jó becslése az ismeretlen eloszlás k-dik momentumának. A bal oldal a mintából kiszámolható, míg a jobb oldalon álló mennyiség az ismeretlen paraméter (vektor) függvénye. A módszer alapján a k=1-től kezdve annyi egyenlőséget írnak fel, ahányból az ismeretlen paraméterek egyértelműen kifejezhető, ezáltal kapható meg a becslés. Általában annyi egyenletre van szükség, ahány ismeretlen paraméter van.
Rao-Blackwell-Kolmogorov tétel alkalmazása, mely módszer alkalmas torzítatlan becslés konstruálására úgy, hogy egy egyszerű torzítatlan becslést egy elégséges statisztika segítségével korrigálnak. Általában n elemű minta alapján.
Blackwellizálás lépései: 1. A becsülni kívánt paraméterre egyszerű torzítatlan becslést adnak, gyakran csak az első (néhány) mintaelem felhasználásával. Ennek jele T. Ez az egyszerű becslés sokszor indikátortól függ, mert felismerhető, hogy a becsülni kívánt paraméter valaminek a valószínűsége. Például az Ind(p) eloszlásnál p=Pp(X1=1), p2= Pp(X1=1, X2=1), p(1-p)= Pp(X1=1, X2=0). A megfelelő torzítatlan becslések: T1=I(X1=1), T2=I(X1=1, X2=1), T3=I(X1=1, X2=0). 2. Keresnek egy S (minél egyszerűbb) elégséges statisztikát. 3. Felírják a V=E(T|S) becslést. Ez a feltételes várható érték nem függ az ismeretlen paramétertől, mivel S elégséges. Másrészt ez is torzítatlan becslés, ami hatásosabb az eredeti T-nél (hogy mennyivel, az bizonytalan). V maga is valószínűségi változó, az S-nek függvénye: ha S a k értéket veszi fel, akkor V értéke E(T|S=k).
A Legnagyobb valószínűség módszer ismert sokasági eloszlást tételez fel, és alkalmas arra hogy e sokasági eloszlás ismeretlen paraméterét (vagy paramétereit) becsülje. A likelihood függvény azt mutatja meg hogy adott (rögzített) eloszlás és különböző paraméterértékek esetén mennyire valószerű, hogy éppen a szóban forgó minta adódik a mintavétel eredményeképp. A függvény ismeretében olyan ismeretlen paramétert (paramétereket) kell keresni, amely(ek) mellett ez a függvény a maximumát veszi fel. A módszer nem eredményez minden esetben torzítatlan becslőfüggvényt, viszont mindig konzisztens és aszimptotikusan hatásos becslőfüggvényt eredményez, normális határeloszlással.
Tapasztalati eloszlás függvény nem deriválható, mivel a megfigyelt paraméterek általában pontszerűek. Ha azonban az adott érték körüli kicsi szórású folytonos eloszlásúnak is tekinthető (ez az eloszlás a magfüggvény). A keletkező folytonos keverék eloszlásnak a deriváltja jól közelíti a sűrűségfüggvényt.
Egy ƒ(x) sűrűségfüggvényből vett minta esetén, ahol a k(y) magfüggvény egyenesen korlátos és yk(y) határértéke 0 a végtelenben, valamint hn olyan számsorozat, ahol : és : akkor aszimptotikusan torzítatlan, konzisztens becslést mutat a ƒ(x) minden folytonossági pontjában.
Az intervallumbecslések egyik módszere a konfidenciaintervallum használata. A konfidenciaintervallum intervallum értékű becslést ad egy paraméterre: valószínűleg ezek közé a korlátok közé esik. Ez sok esetben jobb, mint egyetlen becsült értéket adni. Az α paraméter egy előzetesen megadott értékére a becsült paraméter 1-α valószínűséggel esik az intervallumba. Ezt az 1-α szintet sokszor százalékban adják meg; például 95% tipikus. A több dimenziós megbízhatósági tartomány a konfidenciaintervallum általánosítása. Ez nemcsak a becslés hibájának felmérésére alkalmas, hanem arra is, hogy kimutassa: ha egy paramétert nem sikerült elég pontosan megbecsülni, akkor a többi paramétert is pontatlanul becsülték-e meg.