Matrixfunktion

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Eine Matrixfunktion ist in der Mathematik eine Funktion, welche als Funktionsargument eine quadratische Matrix besitzt. Es gibt unterschiedliche Definitionen solcher Funktionen, deren Funktionswerte meistens Skalare oder wieder quadratische Matrizen sind. Generell versteht man in der Mathematik unter dem Begriff Matrixfunktion explizit den letzteren Fall, das bedeutet

Zum ersten Fall gehören klassische Funktionen wie die Determinante oder die Spur. Da dieser Fall selbsterklärend ist, wird im Artikel nur der letzte Fall behandelt. Im Artikel werden drei äquivalente Methoden zur Erzeugung einer Matrixfunktion erklärt.

Einführung[Bearbeiten | Quelltext bearbeiten]

Sei eine quadratische Matrix, der dazugehörige Matrizenraum und eine skalare Funktion. Das Ziel ist es nun, zu definieren. Dafür gibt es unterschiedliche Möglichkeiten, darunter:

  • Die elementweise Evaluation
  • Die skalarwertige Evaluation .
  • Die matrixwertige Evaluation .

Der erste Fall wird häufig von Programmiersprachen verwendet, spielt in der Mathematik aber eine untergeordnete Rolle, da er die Regeln der Matrix-Algebra bricht. Den zweiten Fall trifft man häufig an, klassische Beispiele sind die Determinante , die Spur und der Spektralradius .

Die ersten beiden Fälle sind selbsterklärend, deshalb werden wir nur den letzten Fall behandeln und werden solche Funktionen als Matrixfunktionen bezeichnen.

Es existieren noch weitere Fälle, die wir auch nicht behandeln werden, so fällt die Vektorisierung in keine der Kategorien.

Matrixfunktion[Bearbeiten | Quelltext bearbeiten]

Es existieren unterschiedliche Wege, wie wir die matrixwertige Funktion einer skalaren Funktion definieren können. Drei übliche Wege sind

Wenn eine analytische Funktion in einer Umgebung ist, welche das Spektrum umschließt, dann sind alle drei Definitionen äquivalent.

Wir brauchen folgende wichtige Definition, welche uns später garantiert, dass wir die Funktion auf allen Jordan-Blöcken anwenden können:

Sei eine Matrix und ihre eindeutigen Eigenwerte, das heißt ist die Anzahl Eigenwerte ohne Berücksichtigung algebraischer Vielfachheiten. Sei die Größe des größten Jordan-Blockes zum Eigenwert . Wir nennen eine Funktion auf dem Spektrum von definiert, wenn die folgenden Werte existieren
[1]

Definition 1 (Jordan-Normalform)[Bearbeiten | Quelltext bearbeiten]

Sei auf dem Spektrum von definiert. Weiter seien die Jordan-Normalform und die dazugehörigen Jordan-Blöcke mit ihren Größen , das heißt und . Seien die zu den dazugehörigen Eigenwerte.

Die Matrixfunktion ist definiert als

wobei die wie folgt definiert sind

[1]

Erklärung der Matrix[Bearbeiten | Quelltext bearbeiten]

Die Matrix in der Definition lässt sich wie folgt erklären, man bildet die Taylor-Reihe von und verwendet als Entwicklungspunkt den Eigenwert , das heißt

Nun substituiert man mit dem Jordan-Block und erhält

wobei die Identitätsmatrix der Dimension ist. Da eine nilpotente Matrix mit Nilpotenzindex ist, ist die Taylorreihe endlich und somit ein Polynom. Da Matrizen dieselben Operationen wie Polynome besitzen (Addition, Subtraktion, Multiplikation usw.), existiert auch das Matrixpolynom. Durch Ausschreiben der Taylorreihe erhält man die Matrix aus der Definition

wobei jeder Term eine der diagonalen Linien in der oberen Dreiecksmatrix bildet. Das macht man nun für jeden Jordan-Block.[1]

Erläuterungen[Bearbeiten | Quelltext bearbeiten]

  • Wenn diagonalisierbar ist, dann ist die Jordan-Normalform gerade die Diagonalmatrix der Eigenwerte und die Spalten von sind die Eigenvektoren. Das bedeutet wiederum, dass
und somit hat die gleichen Eigenvektoren wie und die Eigenwerte von erhält man durch Anwendung von auf die Eigenwert von , das heißt .
  • Es spielt keine Rolle, welche Reihenfolge die Jordan-Blöcke haben, das resultierende wird dasselbe sein.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Seien die Jordan-Blöcke

und die Funktion gegeben, dann berechnet man

Es lässt sich leicht überprüfen, dass die Resultate mit und übereinstimmen.

Nun ist

mit

Definition 2 (Polynominterpolation)[Bearbeiten | Quelltext bearbeiten]

Sei auf dem Spektrum von definiert. Weiter sei das Minimalpolynom von , das heißt das monische Polynom mit dem kleinsten Grad, so dass . Seien die eindeutigen Eigenwerte und die Größe des größten Jordan-Blockes zum Eigenwert .

Das Polynom der Hermiteinterpolation besitzt den Grad

und erfüllt

Die Matrixfunktion ist definiert als[1]

Erläuterungen[Bearbeiten | Quelltext bearbeiten]

  • Diese Methode basiert darauf, dass für ein beliebiges Polynom vollständig durch die Auswertung der Eigenwerte bestimmt ist.
  • Es ist wichtig zu verstehen, dass das Polynom von den Werten von auf dem Spektrum von abhängt.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Sei das Polynom, welche die oben aufgeführten Interpolationsbedingungen erfüllt. Dann ist für

Definition 3 (Cauchyscher Integralsatz)[Bearbeiten | Quelltext bearbeiten]

Sei und sei analytisch auf und innerhalb einer geschlossenen Kontur , welche das Spektrum umschließt. Die Matrixfunktion ist definiert als

wobei die Identitätsmatrix ist.[1]

Die Einträge der Matrix sind explizit

wobei die entsprechenden Einheitsvektoren sind.

Erläuterungen[Bearbeiten | Quelltext bearbeiten]

  • Da die Kontour um das Spektrum herum geht, gilt und die Resolvente
existiert.

Äquivalenz der Definitionen[Bearbeiten | Quelltext bearbeiten]

Die ersten beiden Definition sind äquivalent:[1]

Wenn zusätzlich analytisch auf und innerhalb der Kontour ist, dann sind alle drei Definitionen äquivalent

Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Sei und auf dem Spektrum von definiert. Dann gilt[2]

  • und kommutieren, das heißt respektive für den Kommutator gilt .
  • .
  • .
  • Die Eigenwerte von sind , wobei die Eigenwerte von sind.
  • Falls , wobei Matrizenblöcke auf der Diagonale sind, dann gilt .
  • , wobei das Kronecker-Produkt ist.
  • , wobei das Kronecker-Produkt ist.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Nicholas Higham: Functions of Matrices: Theory and Computation. Hrsg.: SIAM, Philadelphia (= Other Titles in Applied Mathematics). 2008, ISBN 978-0-89871-646-7.
  • Gene H. Golub und Charles F. Van Loan: Matrix Computations. Hrsg.: Johns Hopkins University Press (= Johns Hopkins Studies in the Mathematical Sciences). 2013, ISBN 978-1-4214-0794-4.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b c d e f Nicholas Higham: Functions of Matrices: Theory and Computation. Hrsg.: SIAM, Philadelphia. 2008, ISBN 978-0-89871-646-7, S. 3–8.
  2. Nicholas Higham: Functions of Matrices: Theory and Computation. Hrsg.: SIAM, Philadelphia. 2008, ISBN 978-0-89871-646-7, S. 10.