Zweimaliges Würfeln mit einem idealen Würfel. Dies ist äquivalent zu einem Urnenexperiment mit sechs unterscheidbaren Kugeln, wobei zweimal mit Zurücklegen gezogen wird. Es gibt 36 mögliche Ergebnispaare (da wir die Reihenfolge des Würfelns bzw. der Ziehung berücksichtigen), und alle 36 Möglichkeiten sind gleich wahrscheinlich, haben also eine Wahrscheinlichkeit von 1/36.
Ein ähnliches Urnenexperiment, aber ohne Zurücklegen. In diesem Fall kommen die Ergebnisse (1,1), (2,2), …, (6,6) nicht vor, da die -te Kugel beim zweiten Ziehen nicht vorkommen kann, wenn sie bereits bei der ersten Ziehung herausgenommen wurde. Die übrigen 30 Paare sind gleich wahrscheinlich und haben daher die Wahrscheinlichkeit 1/30.
Diese beiden Experimente ergeben nun zweidimensionale diskrete Zufallsvariablen und , welche die gleichen Randverteilungen haben (jede Zahl von 1 bis 6 ist bei beiden Experimenten in beiden Ziehungen gleich wahrscheinlich und tritt mit Wahrscheinlichkeit 1/6 auf).
Jedoch sind die beiden Ziehungen im ersten Experiment unabhängig, da die gezogene Kugel zurückgelegt wird, während sie im zweiten Experiment nicht unabhängig sind. Das wird am deutlichsten, wenn man sich klarmacht, dass die Paare (1,1), (2,2), …, (6,6) bei einem unabhängigen Experiment jeweils mit Wahrscheinlichkeit 1/36 vorkommen müssen (Produkt der Randwahrscheinlichkeiten 1/6), sie aber beim zweiten Experiment überhaupt nicht auftreten können (Wahrscheinlichkeit 0 haben), da die Kugel nicht zurückgelegt wird.
Die Verteilungen von und sind daher verschieden; es handelt sich also um ein Beispiel zweier unterschiedlicher diskreter multivariater Verteilungen mit gleichen Randverteilungen.
10000 Stichproben einer mit der Clayton-Copula modellierten bivariaten Verteilung (mit ), bei der die Randverteilungen eindimensionale Standardnormalverteilungen sind
Die Realisationen eines bivariaten Zufallsvektors (einer zweidimensionalen Zufallsvariablen) sind Vektoren in .
Die bivariate Verteilung des Zufallsvektors liegt durch die Angabe der Wahrscheinlichkeiten
Die Verteilung des Zufallsvektors liegt bereits dann fest, wenn die Wahrscheinlichkeiten
gegeben sind. Dies motiviert das Konzept der bivariaten Verteilungsfunktion des Zufallsvektors , die durch
definiert ist. Durch Angabe der Funktion liegt die Wahrscheinlichkeitsverteilung von fest, da sich aus den durch die Verteilungsfunktion angegebenen Wahrscheinlichkeiten mit den Regeln der Wahrscheinlichkeitsrechnung die Wahrscheinlichkeiten aller anderen Ereignisse ergeben.
Falls der Zufallsvektor eine bivariate (oder zweidimensionale) Dichtefunktion besitzt, dann besteht zwischen der bivariaten Verteilungsfunktion und der bivariaten Dichtefunktion der Zusammenhang
.
Somit liegt durch die Angabe einer bivariaten Dichtefunktion die bivariate Verteilungsfunktion und damit die bivariate Verteilung fest.
Bivariate Verteilung und bedingte Wahrscheinlichkeiten
Wenn die Komponenten des Zufallsvektors nicht stochastisch unabhängig sind, kann die Abhängigkeitsstruktur durch die sogenannte Copula charakterisiert werden.
In der Abbildung ist ein Beispiel für die Modellierung der Abhängigkeitsstruktur mit Hilfe einer speziellen Copula gezeigt. Insbesondere ist das ein Beispiel dafür, dass eine bivariate Zufallsvariable mit normalen Randverteilungen nicht bivariat normalverteilt sein muss.
Multivariate Verteilungen ordnen einem geeigneten Teilmengensystem von , dem sogenannten Ereignissystem, Wahrscheinlichkeiten zu. Typischerweise wird als Ereignissystem die Borelsche σ-Algebra auf gewählt, die mit bezeichnet wird. Aus wahrscheinlichkeitstheoretischer Sicht gilt: „Multivariate Verteilungen sind Wahrscheinlichkeitsmaße auf .“[1]
Bei Anwendungen, insbesondere im Bereich der Statistik, steht ein Zufallsvektor (eine -dimensionale Zufallsvariable), im Vordergrund, dessen Komponenten Zufallsvariablen sind. Der Zufallsvektor besitzt dann eine multivariate Verteilung, die das Bildmaß von unter ist. Dabei gilt
Es gibt für Randverteilungen mehr Möglichkeiten als im zweidimensionalen Fall, da nun Randverteilungen für jede niedrigere Dimension existieren und man Möglichkeiten hat, einen -dimensionalen Teilvektor aus einem -dimensionalen Vektor auszuwählen. Beispielsweise gibt es im dreidimensionalen Fall zur Verteilung des Zufallsvektors die drei eindimensionale Randverteilungen der Komponenten , und sowie die drei zweidimensionale Randverteilungen der Teilvektoren , und .
Eine Zufallsmatrix ist eine Matrix, deren Elemente Zufallsvariablen sind. Sie kann als eine Funktion aufgefasst werden. Die Verteilung einer Zufallsmatrix ordnet den (Borel-messbaren) Teilmengen von Wahrscheinlichkeiten zu.
Ludwig Fahrmeir, Alfred Hamerle (Hrsg.): Multivariate statistische Verfahren. de Gruyter, New York 1996, ISBN 3-11-008509-7.
Joachim Hartung, Bärbel Elpelt: Multivariate Statistik. Oldenbourg, München/Wien 1999, ISBN 3-486-25287-9.
Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. Wiley, New York 1997, ISBN 978-0-471-12844-1.
K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. Acad. Press, New York 1979, ISBN 0-12-471250-9 (engl.).
Samuel Kotz, Narayanaswamy Balakrishnan, Norman L. Johnson: Continuous Multivariate Distributions – Volume 1: Models and Applications. 2. Auflage. Wiley, New York 2000, ISBN 978-0-471-18387-7, doi:10.1002/0471722065.
↑Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9, S.292.
↑Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9, S.294.
↑ abK. V. Mardia, J. T. Kent und J. M. Bibby: Multivariate Analysis. 1979, S.26.
↑P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, Wishart-Verteilung, S. 69.
↑K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. 1979, S.69.
↑K. V. Mardia, J. T. Kent, J. M. Bibby: Multivariate Analysis. 1979, S.43.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 35.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 36.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 37.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 39.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 40.
↑Norman L. Johnson, Samuel Kotz, Narayanaswamy Balakrishnan: Discrete Multivariate Distributions. 1997, Kap. 41.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 44.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 47.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 48.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 51.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 49.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 50.
↑Samuel Kotz et al.: Continuous Multivariate Distributions. 2000, Kap. 53.