Diskussion:Kovarianzmatrix

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 4 Jahren von JonskiC in Abschnitt Schätzung der Kovarianz aus Daten
Zur Navigation springen Zur Suche springen

Omega, R, B,...[Quelltext bearbeiten]

Wie bei vielen mathematischen Artikeln stellt sich hier die Frage, in wie weit das ganze mathematisch korrekt formuliert sein soll, oder ob es in einer einfacheren Sprache geschrieben werden soll, damit es auch fuer Laien verstaendlich ist. Also: Fuer wen ist der Artikel gedacht.

Ich habe persoenlich nichts gegen mathematisch korrekte Definitionen in Wikipedia. Allerdings faende ich es auch wuenschenswert, wenn in Wikipedia Beschreibungen einfliessen, die an den Nichtmathematiker gerichtet sind.

Man stelle sich z.B. einen 12jaehrigen Schueler vor, der aufgrund seiner Mathe-Hausaufgaben bei Wikipedia recherchiert und etwas ueber quadratische Funktionen wissen moechte.

Gruss Wimmerm 13:39, 9. Sep 2005 (CEST)

Vielleicht können wir uns auf ein -Tupel von Zva. oder einfach auf mehrdimensionale Zva. einigen? --Horrorist 14:41, 9. Sep 2005 (CEST)
Das Wort "Zufallsvektor" in "...aller paarweisen Kovarianzen eines Zufallsvektors" ist doch eigentlich schon ganz gut. Vielleicht sollten wir einfach den Satz "Ein Zufallsvektor besteht aus ..." weglassen? --Jochen 00:04, 8. Jun 2006 (CEST)
Ich folge mal meinem eigenen Vorschlag und entferne den betreffenden Satz. Zufallsvektor ist in dem zugehörigen Artikel perfekt erklärt. --Jochen 22:27, 9. Jun 2006 (CEST)

Komplexe Kovarianzmatrizen[Quelltext bearbeiten]

Im ersten Abschnitt werden Kovarianzmatrizen als reelle Matrizen definiert. Daher habe ich den Satz "Eine komplexe Kovarianzmatrix ist analog hierzu immer hermitesch, d. h. es gilt " entfernt. Alternativ könnte man die Definition erweitern, so dass sie auch den komplexen Fall erfasst, aber das scheint mir nur Verwirrung zu stiften und keinen großen Nutzen zu haben. --Jochen 00:10, 8. Jun 2006 (CEST)

Werteintervall des Korrelationskoeffizienten[Quelltext bearbeiten]

Ich habe beim Aufräumen den Abschnitt über das "Werteintervall des Korrelationskoeffizienten" stehen gelassen, obwohl ich ihn nicht verstehen kann. Vielleicht könnte jemand der sich da qualifiziert fühlt, diesen Punkt entweder ein wenig ausführlicher gestalten, oder entfernen? --Jochen 00:23, 8. Jun 2006 (CEST)

Kann man eigentlich rausnehmen, soll nur heissen dass man ohne die CS-Ungleichung auskommt um zu zeigen, dass . Das Argument ging etwa so: pos. semi-def. . Horrorist 00:39, 8. Jun 2006 (CEST)
Ok, ich entferne diesen Satz hier. Vielleicht sollte man das Argument stattdessen beim Korrelationskoeffizienten einfügen? ---Jochen 22:31, 9. Jun 2006 (CEST)
Nee, inzwischen bin ich der Meinung dass das zu unwichtig ist, irgendwo aufgeführt zu werden. Das CSU-Argument beim Korrelationskoeffizienten sollte völlig ausreichen. Horrorist 22:44, 9. Jun 2006 (CEST)

Unabhängigkeit und Unkorreliertheit[Quelltext bearbeiten]

Als Voraussetzung für habe ich der Einfachkeit halber mal "unabhängig" geschrieben. Natürlich wäre "unkorreliert" schon ausreichend (und besser), nur dass ich nirgendwo in der deutschen Wikipedia eine verständliche Definition für die Unkorreliertheit zweier Zufallsvektoren gefunden habe. Vielleicht hat jemand Lust, "unkorreliert" zu erklären, und ändert danach hier "unabhängig" in "unkorreliert"? --Jochen 22:41, 9. Jun 2006 (CEST)

Das heißt natürlich, dass die Komponenten unkorreliert sind, denn: Schreibe , . Dann
.
Wenn jetzt , dann steht da . Horrorist 22:58, 9. Jun 2006 (CEST)

Hab den Link nun eingefügt... Gruß Azrael. 14:51, 14. Mär. 2008 (CET)Beantworten

Seite ist zu überarbeiten[Quelltext bearbeiten]

Seite erscheint unverständlich und abgehoben. Sie enthält Fehler, siehe Bronstein/Semendjajew S. 704 Varianz, 709 Kovarianz. Bezug zur Korrelation fehlt. Bezug zu Unkorreliertheit fehlt (Cov=0). Die Form fehlt ebenfalls. --Benutzer:heinzelmann (2006-10-16)

wo genau sind im artikel fehler? ich habe hier nur die 3. auflage des bronsteins und dort hab ich auf die schnelle nichts gefunden, was im widerspruch zum artikel stehen soll. -- 141.3.74.36 15:37, 19. Jan. 2007 (CET)Beantworten

Schätzung der Kovarianz aus Daten[Quelltext bearbeiten]

Meine Studenten würden als erstes fragen: "Und wie schätze ich die Kovarianzmatrix aus einer Stichprobe?"

Könnte man die simple Summenformel zur Abschätzung der Kov.matrix mit aufnehmen?

Flo (Der vorstehende, nicht gemaess WP:SIG signierte Beitrag – siehe dazu Hilfe:Signatur – stammt von Florian.schiel (DiskussionBeiträge) 13:59, 22. Jul 2008 (CEST))

du kannst den artikel gerne um die stichproben-geschichte ergaenzen. -- seth 15:33, 25. Jul. 2008 (CEST)Beantworten
Nach mehr als einem Jahrzehnt mal was ergänzt.--Jonski (Diskussion) 14:42, 17. Mär. 2020 (CET)Beantworten

Positive Definitheit[Quelltext bearbeiten]

Die Begründung der positiven Definitheit einer Kovarianzmatrix erscheint mir nicht ausreichend. Ein Beispiel:

besitzt eine positive Hauptdiagonale, ist symmetrisch, aber der kleinste Eigenwert ist -0.5. Damit ist die Matrix nicht positiv definit.

Dies ist ein wichtiger Aspekt, wenn man eine Kovarianzmatrix konstruieren oder aus Daten schätzen will. Ich bitte, das zu klären.

Gruß, Veit (nicht signierter Beitrag von 84.184.223.37 (Diskussion) 14:01, 2. Sep 2008 (CEST))

du hast zwar recht, dass diese matrix nicht positiv definit und damit auch keine kovarianzmatrix ist, aber welcher abschnitt des artikels spricht dagegen? -- seth 14:29, 2. Sep. 2008 (CEST)Beantworten


Die folgende Begründung - Zitat: Die Kovarianzmatrix ist stets positiv semidefinit: Wegen der Symmetrie ist jede Kovarianzmatrix mittels Hauptachsentransformation diagonalisierbar, wobei die Diagonalmatrix wieder eine Kovarianzmatrix ist. Da auf der Diagonale nur Varianzen stehen, ist die Diagonalmatrix folglich positiv semidefinit und somit auch die ursprüngliche Kovarianzmatrix. - suggeriert, dass eine symmetrische Matrix mit positiven Hauptdiagonalelement auch gleich eine Kovarianzmatrix ist. Was natürlich nicht stimmt. Veit (nicht signierter Beitrag von 84.184.229.162 (Diskussion) 13:51, 9. Sep 2008 (CEST))

da geht es um die diagonale der diagonalmatrix...
waer's ok, wenn man schriebe "Da auf der Diagonale der Diagonalmatrix nur Varianzen [...]"? -- seth 15:29, 9. Sep. 2008 (CEST)Beantworten

Überarbeiten: Anwendungen[Quelltext bearbeiten]

Der Artikel braucht einen Abschnitt Anwendung. Wofür wird die Kovarianzmatrix gebraucht und angewendet? Was zeigt sie an? --source 10:58, 8. Okt. 2008 (CEST)Beantworten

was sie anzeigt (naemlich das woraus sie besteht), also die kovarianzen, wird bereits gesagt. ansonsten ist es halt bloss sowas wie die varianz fuer mehrdim. ZV.
aber zur anwendung koennte noch mehr gesagt werden, das ist wahr. besonders bei mehrdimensionalen normalverteilung wird der begriff gerne verwendet, allerdings ist die frage, ob sowas nicht eher in den artikel normalverteilung gehoeren wuerde.
ich koennte auch noch eine explizite anwendung angeben, mit der ich mich an der uni beschaeftigte, und zwar aus dem bereich der stochastischen informationsverabeitung, allerdings erfuellt die vermutlich die relevanzkriterien nicht und grenzt an WP:TF.
ach so, ein bild wie dieses waere vielleicht auch nicht schlecht. -- seth 22:05, 8. Okt. 2008 (CEST)Beantworten

Was ist eine Varianz-Kovarianz-Matrix und warum ist sie wichtig? (aus Wikipedia:Auskunft/Archiv/2008/Woche 41)[Quelltext bearbeiten]

Der Artikel Kovarianzmatrix hilft mir da nicht weiter. --source 10:54, 8. Okt. 2008 (CEST)Beantworten

Schau mal unter [[1]] nach. Falls du nicht so gut englisch verstehst, kannst du die Seite von Google übersetzen lassen. --88.68.96.187 11:07, 8. Okt. 2008 (CEST)Beantworten
Dort wird nur Kovarianzmatrix erwähnt, nicht aber die Varianz-Kovarianz-Matrix. --source 11:21, 8. Okt. 2008 (CEST)Beantworten
(nach BK; Kovarianzmatrix ist nur eine Kurzform von Varianz-Kovarianz-Matrix) Ich nehme an, du verstehst, was die Standardabweichung ist, bzw. die Varianz? Diese Groesse geben die Streuung einer einzelnen Zufallsvariable an. Nehmen wir als Beispiel eine Stichprobe von Maennern, du misst deren Koerpergroesse, daraus bestimmst du den Mittelwert und die Standardabweichung als Mass der Streuung um diesen Mittelwert. Nehmen wir nun an, du misst ausser der Koerpergroesse noch was anderes, sagen wir den IQ, oder den Brustumfang. Man hat also zwei, oder allgemeiner mehrere, Zufallsvariablen. Die darf man nun a priori nicht getrennt betrachten, weil der Wert der einen Variable einen Einfluss auf den Wert der zweiten Variablen haben koennte; das ist der Fall bei Koerpergroesse und Brustumfang, denn groessere Maenner haben im allgemeinen einen groesseren Brustumfang. Ein Mass fuer eine solche Korrelation ist die so genannte Kovarianz. Fuer die gewoehnliche Varianz berechnet man bekanntlich die Summe . Fuer die Kovarianz zweier Zufallsvariablen X und Y berechnet man dagegen . Fuer unabhaengige Variablen verschwindet die Kovarianz, weil fuer ein bestimmtes der zweite Faktor mit gleicher Wahrscheinlichkeit positiv bzw. negativ sein kann, so dass die Summe den Erwartungswert 0 hat. Fuer korrelierte Variablen hat die Kovarianz dagegen einen nichtverschwindenden Erwartungswert. Schliesslich baut man die Varianzen (symbolisch schreibe ich das mal als X·X, Y·Y, Z·Z, usw.) und die Kovarianzen (X·Y, X·Z, Y·Z, usw.) zu einer Matrix zusammen, Varianzen auf der Diagonale, Kovarianzen daneben. Diese Matrix ist also die Verallgemeinerung der bekannten Varianz, bzw. Standardabweichung, und enthaelt Information ueber die Streuung der betrachteten Variablen und deren gegenseitige Abhaengigkeit. --Wrongfilter ... 11:44, 8. Okt. 2008 (CEST)Beantworten
Danke für den einfachen Hinweis das Varianz-Kovarianz-Matrix und Kovarianzmatrix dasselbe ist. Sollte der Artikel dann nicht Varianz-Kovarianz-Matrix heißen mit dem Hinweis im Artikel "auch kurz Kovarianzmatrix"? Deine Erläuterungen finde ich auch gut. Die fehlen dem Artikel. Ich finde sie einarbeitungswürdig. Gruß --source 12:30, 8. Okt. 2008 (CEST)Beantworten

Ich denke in Kovarianz_(Stochastik), nicht zu verwechseln mit Kovarianz_(Physik), steht schon alles Wesentliche drin. Werden nicht nur zwei Zufallsvariablen X und Y betrachet, sondern n X1,X2,X3, bis Xn, kann für zwei davon die Kovarianz Cov(Xi,Xj) berechnet werden. Diese Größen können in einem quadratischen Zahlenschema (Matrix) angeordnet werden. --88.68.101.110 13:39, 8. Okt. 2008 (CEST)Beantworten

Ich meine: Warum ist es wichtig, das in dieser Form darzustellen; so standardisiert, das es sogar einen Namen dafür gibt? Wann ist das wichtig? Wozu braucht man die Kovarianzmatrix regelmäßig? Welche Standardverfahren greifen auf sie zurück? --source 13:44, 8. Okt. 2008 (CEST)Beantworten
Die Kovarianzmatrix ist genauso wichtig wie die Standardabweichung, eben um Stichproben mit mehr als einem Merkmal zu charakterisieren. Die Schreibweise als Matrix ist zum einen kompakt, zum anderen kann man sie transformieren, also schauen, wie sie sich unter Transformation der Variablen verhaelt. Insbesondere kann man sie, weil sie symmetrisch ist, diagonalisieren, so dass saemtliche Kovarianzen verschwinden. Wenn man das gemacht hat, hat man Kombinationen der urspruenglichen Variablen gefunden, die nun tatsaechlich unabhaengig voneinander sind. Die Matrix beschreibt auch vollstaendig eine mehrdimensionale Gauss-Verteilung: Anstatt steht dann naemlich im Exponenten, wo x der Variablenvektor und C die Kovarianzmatrix ist. In irgendeiner Form steht das auch in den Artikeln (siehe auch Multivariate Verteilung), aber ziemlich formalisiert. --Wrongfilter ... 16:17, 8. Okt. 2008 (CEST)Beantworten
Wow, eine ebenso einbauwürdige Antwort. Danke. --source 17:21, 8. Okt. 2008 (CEST)Beantworten
Danke fuer die Blumen. Leider finde ich Artikelschreiben viel schwieriger und zeitaufwaendiger als mal eben bei der Auskunft klugzuscheissen... --Wrongfilter ... 17:26, 8. Okt. 2008 (CEST)Beantworten

verschiebe-ende

als ergaenzung: eine mehrdim. normalverteilung ist nicht eindeutig durch eine cov.matrix bestimmt, sofern kein erwartungswert(vektor) vorgegeben ist. -- seth 19:33, 13. Okt. 2008 (CEST)Beantworten

Vorbereitung für den Artikel[Quelltext bearbeiten]

In die Einleitung[Quelltext bearbeiten]

Diese Matrix ist die Verallgemeinerung der bekannten Varianz, bzw. Standardabweichungen, und enthält Information über die Streuung der betrachteten Variablen und deren gegenseitige Abhängigkeit.

Beispiel sei eine Stichprobe von Männern, deren Körpergröße gemessen wird. Von diesen Messungen wird der Mittelwert und die Standardabweichung (als Mass der Streuung um diesen Mittelwert) berechnet. Misst man nun außer der Körpergrösse beispielsweise noch das Alter, so betrachtet man zwei (oder allgemeiner mehrere) Zufallsvariablen. Diese dürfen (a priori) nicht getrennt betrachtet werden, weil der Wert der einen Variable einen Einfluss auf den Wert der anderen Variablen haben kann (bis zu einem bestimmten Punkt sind Männer mit zunehmenden Alter größer).

Vergleich mit der einfachen Varianz[Quelltext bearbeiten]

Die Kovarianz gibt den Zusammenhang mehrerer Variablen an, unter Berücksichtigung von Wechselwirkungen. Für die gewöhnliche Varianz berechnet man die Summe . Für die Kovarianz zweier Zufallsvariablen X und Y berechnet man dagegen . Für unabhängige Variablen verschwindet die Kovarianz, weil für ein bestimmtes der zweite Faktor mit gleicher Wahrscheinlichkeit positiv bzw. negativ sein kann, so dass die Summe den Erwartungswert 0 hat. Für korrelierte Variablen hat die Kovarianz dagegen einen nichtverschwindenden Erwartungswert.

zu Aufbau der Kovarianzmatrix[Quelltext bearbeiten]

Die Varianzen (also X·X, Y·Y, Z·Z, usw.) und die Kovarianzen (X·Y, X·Z, Y·Z, usw.) setzt man zu einer Matrix zusammen, bei der die Varianzen auf der Diagonale, die Kovarianzen daneben abgetragen werden.


Anwendung[Quelltext bearbeiten]

Kovarianzmatrix wird gebraucht, um Stichproben mit mehr als einem Merkmal zu charakterisieren. Dabei ist die Schreibweise als Matrix kompakt.

Transformation: Die Kovarianzmatrix kann transformiert werden, um zu beobachten, wie sie sich unter Transformation der Variablen verhält. Insbesondere kann man sie (da symmetrisch), diagonalisieren, so dass sämtliche Kovarianzen verschwinden. Man erhält so die Kombinationen der „ursprünglichen Variablen“, die nun tatsächlich unabhängig voneinander sind.

Mehrdimensionale Gauss-Verteilung: Die Matrix beschreibt vollständig eine mehrdimensionale Gauss-Verteilung: Anstatt steht dann im Exponenten, wobei x der Variablenvektor und C die Kovarianzmatrix ist (siehe auch Multivariate Verteilung).


wenn keine Einwende kommen, integriere ich es in den Artikel. --source 15:35, 13. Okt. 2008 (CEST)Beantworten

gudn tach!
die cov.matrix ist nicht die, sondern eine verallgemeinerung. es fehlt hier noch die info, bzgl. was diese verallgemeinerung stattfindet. das wird im jetzigen artikel gesagt (mehrdimensionalitaet). vielleicht ist die aktuelle formulierung nicht besonders oma-kompatibel, inhaltlich sagt sie jedenfalls mehr aus. ich habe das mit der streuung noch ergaenzt.
die restliche obige formulierung ist mir insg. etwas zu sehr statistisch (soll heissen: zuwenig stochastisch), da es sich bloss auf stichproben bezieht. -- seth 20:06, 13. Okt. 2008 (CEST)Beantworten
Vieleicht willst du dahingehend die obigen Vorschläge anpassen/ergänzen? Gruß --source 10:01, 15. Okt. 2008 (CEST)Beantworten
sorry fuer die spaeter antwort und dafuer, dass es nur eine halbe wird.
die einleitung habe ich das bereits ein wenig geaendert. imho ist da von oben nix mehr einzubauen. zu den anderen themen sage ich was, wenn ich wieder zeit habe (ab. 15. nov.). falls ich's vergessen sollte, sagt mir bitte auf meiner DS bescheid. -- seth 16:27, 1. Nov. 2008 (CET)Beantworten

Kovarianzmatrix der Summe nicht diagonal[Quelltext bearbeiten]

Weil es immer weiter falsch in den Artikel reinrevertiert wird: Es wird nicht vorausgesetzt, dass die einzelnen Komponenten des Vektors unkorreliert sind. Dann muss auch keine Diagonalmatrix sein. -- HilberTraum (d, m) 19:58, 25. Jul. 2016 (CEST)Beantworten