Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Grundbegriff der Stochastik. Der Erwartungswert ist eine Kennzahl einer Zufallsvariablen. Bei einer engeren Definition ist der Erwartungswert einer Zufallsvariablen eine reelle Zahl und damit endlich; bei einer weiteren Definition sind für den Erwartungswert einer Zufallsvariablen auch die Werte zugelassen. Es gibt Zufallsvariablen, für die kein Erwartungswert definiert ist.
Hat eine Zufallsvariable einen endlichen Erwartungswert, so wird dieser häufig mit abgekürzt; er beschreibt dann die Zahl, die die Zufallsvariable im Mittel annimmt. Er ergibt sich zum Beispiel bei unbegrenzter Wiederholung des zugrunde liegenden Experiments als Durchschnitt der Ergebnisse. Das Gesetz der großen Zahlen beschreibt, in welcher Form die Durchschnitte der Ergebnisse bei wachsender Anzahl der Experimente gegen den endlichen Erwartungswert streben, oder anders gesagt, wie die Stichprobenmittelwerte bei wachsendem Stichprobenumfang gegen den Erwartungswert konvergieren.
Der Erwartungswert berechnet sich als nach der Wahrscheinlichkeit gewichtetes Mittel der Werte, die die Zufallsvariable annimmt. Er muss selbst jedoch nicht einer dieser Werte sein.
Weil der Erwartungswert einer Zufallsvariablen nur von deren Wahrscheinlichkeitsverteilung abhängt, wird auch vom Erwartungswert einer Wahrscheinlichkeitsverteilung gesprochen, ohne Bezug auf eine Zufallsvariable. Der endliche Erwartungswert einer Zufallsvariablen kann als Schwerpunkt der Wahrscheinlichkeitsmasse betrachtet werden und wird daher als ihr erstes Moment bezeichnet.
Die Augenzahlen beim Würfelwurf können als unterschiedliche Ausprägungen einer Zufallsvariablen betrachtet werden. Weil die (tatsächlich beobachteten) relativen Häufigkeiten sich gemäß dem Gesetz der großen Zahlen mit wachsendem Stichprobenumfang den theoretischen Wahrscheinlichkeiten der einzelnen Augenzahlen annähern, muss der Mittelwert gegen den Erwartungswert von streben. Zu dessen Berechnung werden die möglichen Ausprägungen mit ihrer theoretischen Wahrscheinlichkeit gewichtet.
Wie die Ergebnisse der Würfelwürfe ist der Mittelwert vom Zufall abhängig. Im Unterschied dazu ist der Erwartungswert eine feste Kennzahl der Verteilung der Zufallsvariablen .
Die Definition des Erwartungswerts steht in Analogie zum gewichteten Mittelwert von empirisch beobachteten Zahlen. Hat zum Beispiel eine Serie von zehn Würfelversuchen die Ergebnisse 4, 2, 1, 3, 6, 3, 3, 1, 4, 5 geliefert, kann der zugehörige Mittelwert
alternativ berechnet werden, indem zunächst gleiche Werte zusammengefasst und nach ihrer relativen Häufigkeit gewichtet werden:
.
Allgemein lässt der Mittelwert der Augenzahlen in Würfen sich wie
schreiben, worin die relative Häufigkeit der Augenzahl bezeichnet.
Das Konzept des Erwartungswertes geht auf Christiaan Huygens zurück. In einer Abhandlung über Glücksspiele von 1656 (Van rekeningh in spelen van geluck) beschreibt Huygens den erwarteten Gewinn eines Spiels als „het is my soo veel weerdt“ („es ist mir so viel wert“). Frans van Schooten verwendete in seiner Übersetzung von Huygens’ Text ins Lateinische den Begriff expectatio („Erwartung“). Bernoulli übernahm in seiner Ars conjectandi den von van Schooten eingeführten Begriff in der Form valor expectationis („Erwartungswert“).[1]
Das Symbol E für Erwartungswert oder Expectation wurde in der englischsprachigen Literatur erst ab dem 20. Jahrhundert eingeführt.[2]
Heute wird in der englischsprachigen und deutschsprachigen mathematischen Literatur häufig die Schreibweise oder oder auch mit eckigen Klammern bzw. für den Erwartungswert der Zufallsvariable verwendet.[3][4]
Gelegentlich werden auch geschweifte Klammern verwendet.[5]
In der russischsprachigen Literatur findet sich die Bezeichnung .[6]
Gelegentlich werden auch die Klammern um die Zufallsvariable weggelassen, was der Schreibweise für Operatoren entspricht: oder .[7] Mit der auch vorkommenden Notation besteht hierbei nicht die Gefahr, dass der Operator mit einer Zufallsvariable verwechselt wird. Die Notation mit den eckigen Klammern hebt speziell die Tatsache hervor, dass es sich hier um ein Funktional handelt.
Die Bezeichnung des Erwartungswerts der Zufallsvariable betont die Eigenschaft als nicht vom Zufall abhängiges erstes Moment. In der Physik findet die Bra-Ket-Notation Verwendung.[2]
Insbesondere wird statt für den Erwartungswert einer Größe geschrieben.
Im reellen diskreten Fall errechnet sich der Erwartungswert als die Summe der Produkte aus den Wahrscheinlichkeiten jedes möglichen Ergebnisses des Experiments und den „Werten“ dieser Ergebnisse.
Ist eine reelle diskrete Zufallsvariable, die die Werte mit den jeweiligen Wahrscheinlichkeiten annimmt (mit als abzählbarer Indexmenge), so errechnet sich der Erwartungswert im Falle der Existenz mit:
Es ist zu beachten, dass dabei nichts über die Reihenfolge der Summation ausgesagt wird (siehe summierbare Familie).
Ist , so besitzt genau dann einen endlichen Erwartungswert , wenn die Konvergenzbedingung
erfüllt ist, d. h. die Reihe für den Erwartungswert absolut konvergent ist.
Für nichtnegative ganzzahlige Zufallsvariablen ist oft die folgende Eigenschaft hilfreich[8]
Diese Eigenschaft wird im Abschnitt über den Erwartungswert einer nicht-negativen Zufallsvariablen bewiesen.
Erwartungswert einer reellen Zufallsvariable mit Dichtefunktion
(2) und (3) sind unter der gemeinsamen Voraussetzung ( ist Dichtefunktion und ist Verteilungsfunktion von ) äquivalent, was mit schulgemäßen Mitteln bewiesen werden kann.[9]
Für nichtnegative Zufallsvariablen folgt daraus die wichtige Beziehung zur Zuverlässigkeitsfunktion
nicht beide unendlich sind, wobei und den Positiv- sowie den Negativteil von bezeichnen. In diesem Fall kann oder gelten.
Der Erwartungswert ist genau dann endlich, wenn integrierbar ist, also die obigen Integrale über und beide endlich sind. Dies ist äquivalent mit
In diesem Fall schreiben viele Autoren, der Erwartungswert existiere oder sei eine Zufallsvariable mit existierendem Erwartungswert, und schließen damit den Fall bzw. aus.
Der (endliche) Erwartungswert einer reellen Zufallsvariablen kann aber auch am Graphen ihrer Verteilungsfunktion durch eine naheliegende Flächengleichheit festgelegt werden. Es ist nämlich mit einer reellen Zahl genau dann, wenn in der --Ebene die beiden Flächen, beschrieben durch
bzw.
denselben endlichen Flächeninhalt haben, d. h. wenn
gilt und beide uneigentlichen Riemann-Integrale konvergieren. Dazu äquivalent ist die allgemeingültige Darstellung (3), ebenfalls mit konvergenten Integralen.[10]
Der Erwartungswert ist linear für Zufallsvariablen mit endlichem Erwartungswert. Es gilt also für beliebige, nicht notwendigerweise stochastisch unabhängige, Zufallsvariablen mit endlichen Erwartungswerten, dass
ist. Als Spezialfälle ergeben sich
,
und
.
Die Linearität lässt sich auch auf endliche Summen erweitern:
Die Linearität des Erwartungswertes für Zufallsvariablen mit endlichem Erwartungswert folgt aus der Linearität des Integrals für integrierbare Funktionen.
Die Voraussetzung endlicher Erwartungswerte ist wesentlich für die Anwendung der Linearitätseigenschaft als Rechenregel. Beispielsweise ist es möglich, dass und und der Erwartungswert von nicht definiert ist oder in anderen Fällen endlich ist.
Das Experiment sei ein Würfelwurf. Als Zufallsvariable betrachten wir die gewürfelte Augenzahl, wobei jede der Zahlen 1 bis 6 mit einer Wahrscheinlichkeit von jeweils 1/6 gewürfelt wird.
Wenn beispielsweise 1000-mal gewürfelt wird, man also das Zufallsexperiment 1000-mal wiederholt und die geworfenen Augenzahlen zusammenzählt und durch 1000 dividiert, ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 3,5. Es ist jedoch unmöglich, diesen Wert mit einem einzigen Würfelwurf zu erzielen.
Das Sankt-Petersburg-Paradoxon beschreibt ein Glücksspiel, dessen zufälliger Gewinn einen unendlichen Erwartungswert hat. Gemäß der klassischen Entscheidungstheorie, die auf der Erwartungswertregel basiert, sollte man daher einen beliebig hohen Einsatz riskieren. Da die Wahrscheinlichkeit für einen Verlust des Einsatzes aber beträgt, erscheint diese Empfehlung nicht rational. Eine Lösung des Paradoxons stellt die Verwendung einer logarithmischen Nutzenfunktion dar.
Wenn die Zufallsvariablen stochastisch unabhängig sind und endliche Erwartungswerte besitzen (integrierbar sind), dann hat auch das Produkt einen endlichen Erwartungswert und es gilt
.
Insbesondere gilt auch
für .
Wenn die Zufallsvariablen stochastisch unabhängig sind und die Zufallsvariablen endliche Erwartungswerte besitzen, dann hat auch das Produkt einen endlichen Erwartungswert und es gilt
Die Voraussetzung endlicher Erwartungswerte ist wesentlich. Wenn beispielsweise zwei stochastisch unabhängige Zufallsvariablen und die Erwartungswerte und haben, dann ist es möglich, dass nicht definiert ist. Die Zufallsvariable besitze eine Standard-Cauchy-Verteilung, dann ist nicht definiert. Andererseits gilt mit , , wobei und stochastisch unabhängig sind mit den Erwartungswerten und .
Erwartungswert des Produkts von nicht stochastisch unabhängigen Zufallsvariablen
Ist eine zusammengesetzte Zufallsvariable, sprich sind unabhängige Zufallsvariablen und sind die identisch verteilt und ist auf definiert, so lässt sich darstellen als
Sind die nichtnegativen Zufallsvariablen fast sicher punktweise monoton wachsend und konvergieren fast sicher gegen eine weitere Zufallsvariable , so gilt
Die charakteristische Funktion einer Zufallsvariable ist definiert als .
Mit ihrer Hilfe lässt sich durch Ableiten der Erwartungswert der Zufallsvariable bestimmen:
Auch hier lässt sich der Erwartungswert einfach bestimmen als
.
Dies folgt daraus, dass der Erwartungswert das erste Moment ist und die k-ten Ableitungen der momenterzeugenden Funktion an der 0 genau die k-ten Momente sind.
Berechnung mittels der wahrscheinlichkeitserzeugenden Funktion
Ist eine Zufallsgröße auf einem Wahrscheinlichkeitsraum, so beschreibt die beste Approximation an im Sinne der Minimierung von , wobei a eine reelle Konstante ist. Dies folgt aus dem Satz über die beste Approximation, da
sei eine stetige Zufallsvariable mit der Dichtefunktion .
Wenn wieder eine Zufallsvariable ist, so kann der Erwartungswert von auf zwei Arten bestimmt werden. Entweder kann über den Zusammenhang die Wahrscheinlichkeitsverteilung von bestimmt und dann die Definition des Erwartungswertes verwendet werde, oder aber – und dies ist häufig einfacher – es wird die Formel
verwendet. Dieser Erwartungswert ist endlich, falls
endlich ist.
Bei einer diskreten Zufallsvariablen mit der Wahrscheinlichkeitsfunktion wird die Summe
verwendet. Enthält die Summe unendlich viele Summanden, dann muss die Reihe absolut konvergieren, damit der Erwartungswert endlich ist.
Im allgemeinen Fall einer Zufallsvariablen mit der Verteilungsfunktion kann der Erwartungswert mit Hilfe des Lebesgue-Stieltjes-Integral als
bestimmt werden. ist endlich, falls endlich ist. Falls mindestens einer der nichtnegativen Erwartungswerte und endlich ist, ist = , anderenfalls ist nicht definiert. Falls nicht nur endliche Erwartungswerte interessieren, müssen analoge Fallunterscheidungen auch für die Fälle einer stetigen oder diskreten Zufallsvariable vorgenommen werden, d. h. die positiven und die negativen Werte von müssen getrennt ausgewertet werden.
Funktion von zwei Zufallsvariablen mit gemeinsamer Dichtefunktion
Haben die integrierbaren Zufallsvariablen und eine gemeinsame Wahrscheinlichkeitsdichtefunktion, so kann der Erwartungswert einer Funktion von und nach dem Satz von Fubini, wenn dessen Voraussetzungen erfüllt sind, wenn also endlich ist oder wenn nichtnegativ ist, als
berechnet werden.
Der Erwartungswert von ist nur dann endlich, wenn das Integral
endlich ist.
Insbesondere ist:
Aus der Randdichte errechnet sich der Erwartungswert wie bei univariaten Verteilungen:
Wird der Erwartungswert als Schwerpunkt der Verteilung einer Zufallsvariable aufgefasst, so handelt es sich um einen Lageparameter. Dieser gibt an, wo sich der Hauptteil der Verteilung befindet. Weitere Lageparameter sind
der Modus: Der Modus gibt an, an welcher Stelle die Verteilung ein Maximum hat, sprich bei diskreten Zufallsvariablen die Ausprägung mit der größten Wahrscheinlichkeit und bei stetigen Zufallsvariable die Maximastellen der Dichtefunktion. Der Modus existiert zwar im Gegensatz zum Erwartungswert immer, muss aber nicht eindeutig sein. Beispiele für nichteindeutige Modi sind bimodale Verteilungen.
der Median ist ein weiterer gebräuchlicher Lageparameter (in einer Skizze oben mit gekennzeichnet). Er gibt an, welcher Wert auf der x-Achse die Wahrscheinlichkeitsdichte so trennt, dass links und rechts des Medians jeweils die Hälfte der Wahrscheinlichkeit anzutreffen ist. Auch der Median existiert immer, muss aber (je nach Definition) nicht eindeutig sein.
Wird der Erwartungswert als erstes Moment aufgefasst, so ist er eng verwandt mit den Momenten höherer Ordnung. Da diese wiederum durch den Erwartungswert in Verknüpfung mit einer Funktion definiert werden, sind sie gleichsam ein Spezialfall. Einige der bekannten Momente sind:
Die Varianz: Zentriertes zweites Moment, . Hierbei ist der Erwartungswert.
Die Schiefe: Zentriertes drittes Moment, normiert auf die dritte Potenz der Standardabweichung. Es ist .
Die Wölbung: Zentriertes viertes Moment, normiert auf . Es ist .
Ist die Wellenfunktion eines Teilchens in einem bestimmten Zustand und ist ein Operator, so ist
der quantenmechanische Erwartungswert von im Zustand .
ist hierbei der Ortsraum, in dem sich das Teilchen bewegt, ist die Dimension von , und ein hochgestellter Stern steht für komplexeKonjugation.
Lässt sich als formale Potenzreihe schreiben (und das ist oft so), so wird die Formel verwendet
Der Index an der Erwartungswertsklammer wird nicht nur wie hier abgekürzt, sondern manchmal auch ganz weggelassen.
Beispiel
Der Erwartungswert des Aufenthaltsorts in Ortsdarstellung ist
Der Erwartungswert des Aufenthaltsorts in Impulsdarstellung ist
wobei wir die Wahrscheinlichkeitsdichtefunktion der Quantenmechanik im Ortsraum identifiziert haben.
Heinz Bauer: Wahrscheinlichkeitstheorie (= De Gruyter Lehrbuch). 5., durchgesehene und verbesserte Auflage. de Gruyter, Berlin u. a. 2002, ISBN 3-11-017236-4 (MR1902050).
Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 10., überarbeitete Auflage. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-658-03076-6.
Achim Klenke: Wahrscheinlichkeitstheorie. 3., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin u. a. 2013, ISBN 978-3-642-36017-6.
Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung (= Springer-Lehrbuch). 2., überarbeitete und erweiterte Auflage. Springer Spektrum, Heidelberg u. a. 2014, ISBN 978-3-642-45386-1.
↑Norbert Henze: Stochastik für Einsteiger. Eine Einführung in die faszinierende Welt des Zufalls. 7., überarbeitete und erweiterte Auflage. Vieweg + Teubner, Wiesbaden 2008, ISBN 978-3-8348-0423-5, S. 79.
↑ abJohn Aldrich: Earliest Uses of Symbols in Probability and Statistics. 2014, (online).
↑Sheldon M. Ross: Introduction to probability models. 9. Auflage. Academic Press, Amsterdam u. a. 2007, ISBN 978-0-12-598062-3, S. 143.
↑Helmut Wirths: Der Erwartungswert. Skizzen zur Begriffsentwicklung von Klasse 8 bis 13. In: Mathematik in der Schule. Band 33, Heft 6, 1995, S. 330–343.
↑Roland Uhl: Charakterisierung des Erwartungswertes am Graphen der Verteilungsfunktion. Technische Hochschule Brandenburg, 2023, doi:10.25933/opus4-2986 (PDF). S. 2–4.