Vektorisierung (Mathematik)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Vektorisierung bezeichnet in der linearen Algebra und in der Matrix-Theorie die Transformation einer Matrix oder eines Tensors in einen Vektor. Die Anordnung der Elemente im Vektor erfolgt spaltenweise. Der dazugehörige lineare Operator wird mit notiert und ist auf dem Raum der endlichdimensionalen Matrizen definiert.

Als anschauliches Beispiel:

Die Notation steht für englisch vector of und wird auch mit notiert. Zwei weitere Vektorisierungs-Operatoren sind und , deren Notation für englisch vector half und englisch vector pattern steht. Der erste Operator liefert einen Vektor mit den Elementen des oberen Dreiecks. Der zweite Operator liefert einen Vektor mit allen eindeutig unterschiedlichen Variablen einer sogenannten gemusterten Matrix, so dass im resultierenden Vektor keine Abhängigkeit zwischen den Variablen besteht. Die Literatur ist nicht immer konsistent in deren Notation.

Die Permutationsmatrix, welche in transformiert, nennt man Kommutationsmatrix.

Definition[Bearbeiten | Quelltext bearbeiten]

Sei eine -Matrix mit endlicher Dimension und seien die Spalten von , das heißt .

Die Vektorisierung ist der -Vektor

[1]

Vektorisierung von Tensoren[Bearbeiten | Quelltext bearbeiten]

Die Vektorisierung lässt sich auch direkt auf Tensoren übertragen. Für einen Tensor bedeutet dies, dass das Element an die Position

des Vektors kommt.[2]

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Seien , , , , und fünf Matrizen, deren Dimension dahinter steht, dann gilt[1]

  • ,
  • ,

ist das Kronecker-Produkt.

Kommutationsmatrix[Bearbeiten | Quelltext bearbeiten]

Sei eine -Matrix, dann ist die Kommutationsmatrix die Permutationsmatrix der Dimension , welche folgende Gleichung

erfüllt.

Sie kann wie folgt konstruiert werden:[1]

wobei die Matrizen der Dimension sind, die eine an der Stelle besitzen und Null an den restlichen Stellen

was dem Produkt der Einheitsvektoren und

entspricht.

Es gilt

Verwandte Operatoren[Bearbeiten | Quelltext bearbeiten]

Die Literatur ist nicht immer konsistent bezüglich der Notation von und , so definieren manche Autoren als den Operator und umgekehrt. Auch die Anordnung der Elemente kann sich von Autor zu Autor unterscheiden. Wir folgen Henderson und Searle.[3]

Der vech-Operator[Bearbeiten | Quelltext bearbeiten]

Sei eine symmetrische Matrix der Dimension , dann ist der -dimensionale Vektor, bestehend aus der Diagonalen von und den Elementen darüber. Die Anordnung erfolgt wieder spaltenweise.[3]

Konkret bedeutet das für

,

dass

Da die Matrix symmetrisch ist, kann man für die Definition auch die Diagonale mit den Elementen darunter nehmen. Die Anordnung der Elemente wird bei einer spaltenweise Anordnung dann aber anders sein.

Der vecp-Operator[Bearbeiten | Quelltext bearbeiten]

Wir nennen eine Matrix eine gemusterte Matrix (englisch patterned Matrix), wenn eine oder beide Bedingungen zutreffen:

  1. Manche Elemente sind konstant (d. h. sie sind keine Variablen).
  2. Manche Elemente sind Funktionen von anderen Elementen.[4]

Sei eine gemusterte Matrix, dann ist der Vektor bestehend aus allen eindeutigen unterschiedlichen Variablen.[4][3]

Damit ist gemeint, dass keine Abhängigkeiten unter diesen Variablen gelten soll und jede Variable deshalb auch nur einmal vorkommen kann. Der resultierende Vektor ist dann musterfrei.

Beispiele:

Sei

dann ist

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Arjun K. Gupta, D. K. Nagar: Matrix variate distributions. Chapman & Hall /CRC, 2000, ISBN 1-58488-046-5 (englisch).
  • Harold V. Henderson und S. R. Searle: Vec and Vech Operators for Matrices, with Some Uses in Jacobians and Multivariate Statistics. In: The Canadian Journal of Statistics / La Revue Canadienne de Statistique. Band 7, Nr. 1, 1979, S. 65–81, doi:10.2307/3315017.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c Arjun K. Gupta, D. K. Nagar: Matrix variate distributions. Chapman & Hall /CRC, 2000, ISBN 1-58488-046-5, S. 9–10 (englisch).
  2. Xian-Da Zhang: Matrix Analysis and Applications. Hrsg.: Cambridge University Press, Indien. 2017, S. 593.
  3. a b c Harold V. Henderson und S. R. Searle: Vec and Vech Operators for Matrices, with Some Uses in Jacobians and Multivariate Statistics. In: The Canadian Journal of Statistics / La Revue Canadienne de Statistique. Band 7, Nr. 1, 1979, S. 65–81, doi:10.2307/3315017.
  4. a b D. S. Tracy und K. G. Jinadasa: Patterned Matrix Derivatives. In: The Canadian Journal of Statistics / La Revue Canadienne de Statistique. Band 16, Nr. 4, 1988, S. 411–418, doi:10.2307/3314938.