Eine quadratische Form von
reellen Zufallsvariablen
, die eine gemeinsame Wahrscheinlichkeitsverteilung besitzen, ist eine Zufallsvariable, die sich additiv aus Summanden der Form
mit reellen Konstanten
für
zusammensetzt.
Vektoren werden standardmäßig als Spaltenvektoren aufgefasst. Der hochgestellte Index
kennzeichnet die Transponierung eines Vektors oder einer Matrix.
bezeichnet die Menge der reellwertigen Matrizen mit
Zeilen und
Spalten.
sei die Einheitsmatrix der Ordnung
. Für eine quadratische Matrix
bezeichnet
die Spur der Matrix
, das ist die Summe der Diagonaleinträge.
sei ein Zufallsvektor mit Werten in
.
sei eine quadratische Matrix mit Elementen
für
. Dann heißt
![{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} =\sum _{i=1}^{n}\sum _{j=1}^{n}a_{ij}X_{i}X_{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8683dc78476c09e57d20454bfd3cfb7f5d29acfd)
quadratische Form der reellen Zufallsvariablen
.[1]
ist eine reelle Zufallsvariable.
- Falls
eine positiv semidefinite Matrix ist, gilt
.
- Es gilt
. Daher gilt auch
für die symmetrische Matrix
. Für viele Eigenschaften quadratischer Formen von Zufallsvariablen stellt daher die Beschränkung auf symmetrische Matrizen
keine Einschränkung dar.
- Es gilt
![{\displaystyle \mathbf {X} ^{T}\mathbf {I} _{n}\mathbf {X} =\sum _{i=1}^{n}X_{i}^{2}\;.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/251c3f88f2396847c10e84f812d1d5e74e587775)
Satz:
sei ein
-dimensionaler Zufallsvektor mit dem Erwartungswertvektor
und der Kovarianzmatrix
. Für jede Matrix
gilt
[2]
Diese Aussage gilt unabhängig davon, ob
symmetrisch ist und ob
invertierbar ist. Unmittelbar aus diesem Satz ergeben sich die folgenden Spezialfälle:
- Der zentrierte Zufallsvektor
hat den Erwartungswertvektor
und dieselbe Kovarianzmatrix
wie der Zufallsvektor
, so dass sich
![{\displaystyle \mathbb {E} [(\mathbf {X} -{\boldsymbol {\mu }})^{T}\mathbf {A} (\mathbf {X} -{\boldsymbol {\mu }})]=\operatorname {Spur} (\mathbf {A} {\boldsymbol {\Sigma }})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cfba5c7b94485b0acce0c7a89c91198901fc6243)
- ergibt.
- Eine wichtiger Spezialfall ergibt sich, wenn die Kovarianzmatrix
invertierbar ist. Dann gilt
,
- denn
.
- Für einen Vektor
hat der Zufallsvektor
den Erwartungswertvektor
und dieselbe Kovarianzmatrix
wie der Zufallsvektor
, so dass sich
![{\displaystyle \mathbb {E} [(\mathbf {X} -\mathbf {b} )^{T}\mathbf {A} (\mathbf {X} -\mathbf {b} )]=\operatorname {Spur} (\mathbf {A} {\boldsymbol {\Sigma }})+({\boldsymbol {\mu }}-\mathbf {b} )^{T}{\boldsymbol {\Sigma }}({\boldsymbol {\mu }}-\mathbf {b} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7499713ff414a9818f2d9e10c41bbf318adace7)
- ergibt.
Satz:
sei ein
-dimensionaler Zufallsvektor mit dem Erwartungswertvektor
und der Kovarianzmatrix
. Es sei
und die quadratischen reellen Matrizen
für
seien positiv semidefinit. Mit positiven Konstanten
für
seien die
Ereignisse
![{\displaystyle A_{j}:=\{(\mathbf {X} -{\boldsymbol {b}})^{T}\mathbf {B} _{j}(\mathbf {X} -{\boldsymbol {b}})\leq \delta _{j}\},\quad j=1,\dots ,m}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2e5f9bb43ff8f8dec6334519404760979ff3f05)
definiert. Dann gilt
![{\displaystyle P\left(\bigcap _{j=1}^{m}A_{j}\right)\geq 1-\left({\frac {\gamma _{1}}{\delta _{1}}}+\dots +{\frac {\gamma _{m}}{\delta _{m}}}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06350f2fab57d105d510eedc7bfcec3efa0f8167)
mit
[3][4]
Ein wichtiger Spezialfall ergibt sich für
,
,
und
. Dann gelten die Ungleichungen
![{\displaystyle P\left((\mathbf {X} -{\boldsymbol {\mu }})^{T}{\boldsymbol {\Sigma }}^{-1}(\mathbf {X} -{\boldsymbol {\mu }})\leq \delta \right)\geq 1-{\frac {n}{\delta }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/526ac3a142b84ee62e77b4e578d6ba00c5253eec)
und
![{\displaystyle P\left((\mathbf {X} -{\boldsymbol {\mu }})^{T}{\boldsymbol {\Sigma }}^{-1}(\mathbf {X} -{\boldsymbol {\mu }})>\delta \right)\leq {\frac {n}{\delta }}\;.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3aa463c81f67e0c3556ef149d1e5ac0cf83c4969)
Die letzte Ungleichung wurde bereits 1962 von Samuel Stanley Wilks angegeben[5] und ist eine multivariate Verallgemeinerung der Tschebyscheffschen Ungleichung, die für eine reelle Zufallsvariable
mit dem Erwartungswert
und der Varianz
in der Form
![{\displaystyle P\left({\frac {(X-\mu )^{2}}{\sigma ^{2}}}>\delta \right)\leq {\frac {1}{\delta }},\quad \delta >0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/11eb957bc54cb0e3b0a1b56a6a4479fc875774fc)
geschrieben werden kann.
- A. M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables – Theory and Applications (= Statistics: Textbooks and Monographs. Band 126). Dekker, New York / Basel /Hong Kong 1992, ISBN 0-8247-8691-2.
- D. R. Jensen: Joint Distributions of Quadratic Forms. In: SIAM Journal on Applied Mathematics. Band 42, Nr. 2, 1982, S. 297–301, JSTOR:2101213.
- ↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables. Definition 3.1.1, S. 25.
- ↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables. Corollary 3.2b.1, S. 51.
- ↑ D. R. Jensen: Joint Distributions of Quadratic Forms. Theorem 1, S. 297.
- ↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables. Theorem 4.8.1, S. 188.
- ↑ S. S. Wilks: Mathematical Statistics. Wiley, New York 1962, S. 92 (referenziert nach D. R. Jensen: Joint Distributions of Quadratic Forms, S. 298).