Nichtnegative Matrixfaktorisierung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Nichtnegative Matrixfaktorisierung (NMF) ist ein Verfahren zur Dimensionsreduktion von Daten. Eine Matrix mit Einträgen in den nichtnegativen reellen Zahlen wird dabei linear in Faktoren vom Rang 1 zerlegt. Durch spezielle Algorithmen kann eine Zerlegung gefunden werden, bei der auch die einzelnen Faktoren nichtnegativ sind. Diese Forderung führt in vielen Fällen zu Zerlegungen, die leichter zu interpretieren sind und die Daten als Summe von klar getrennten Komponenten darstellen. Die NMF wird seit ihrer Einführung 1999[1] in vielen Gebieten der Wissenschaft angewandt.

Geschichte[Bearbeiten | Quelltext bearbeiten]

In der Chemometrik ist die nichtnegative Matrixfaktorisierung bereits seit den 1970er Jahren bekannt, wobei sie allerdings nicht als Faktorisierung von Matrizen beschrieben wurde. In den 90er Jahren veröffentlichten einige finnische Wissenschaftler Arbeiten zur positiven Matrixfaktorisierung.[2]

Den Durchbruch zur weiteren Verbreitung schaffte die NMF, als die amerikanischen Neurowissenschaftler Daniel D. Lee und Sebastian Seung 1999 in einem Artikel in der Fachzeitschrift Nature[1] ihre Eigenschaften untersuchten und den einfachen multiplikativen Algorithmus zu ihrer Berechnung angaben. Die Faktorisierung erfreut sich seitdem großer Beliebtheit und es sind mathematische Analysen, neue Berechnungsalgorithmen und abgewandelte Faktorisierungen[3][4] entstanden.

Definition[Bearbeiten | Quelltext bearbeiten]

Sei eine beliebige Matrix der Dimension mit nichtnegativen Einträgen. Weiterhin sei die Anzahl der Komponenten gegeben, die kleiner als und als sei. Die nichtnegative Matrixfaktorisierung besteht dann aus einer Matrix der Dimension und einer Matrix der Dimension , die beide nichtnegative Einträge besitzen und gemeinsam die Frobeniusnorm der Differenz

minimieren.

Diese Definition entspricht, abgesehen von der Forderung der Nichtnegativität, genau der der Hauptkomponentenanalyse. Die Faktorisierung ist durch das Minimierungsproblem nicht eindeutig bestimmt. Beispielsweise sind für eine Permutationsmatrix die Matrizen und ebenfalls Minimierer von , sodass die Ordnung der Faktoren also völlig unbestimmt ist. Auch die Skalierung der Faktoren kann variieren.

Beispiel[Bearbeiten | Quelltext bearbeiten]

In diesem Beispiel verwenden wir ein Video als Datenbasis. Es zeigt einen rund einen halben Millimeter breiten Ausschnitt aus medialen präfrontalen Cortex einer Maus, in dem die Aktivierung der Neuronen durch Optogenetik sichtbar gemacht wurden.[5]

Das folgende Beispiel zeigt, wie man mithilfe der NMF zum Beispiel die Aktivität von Neuronen analysieren kann. Als Ausgangsmatrix wählen wir eine Matrix, die durch Helligkeitswerte in dem rechts stehenden Video gegeben ist. Das Video zeigt eine optogenetische Aufnahme aus dem Gehirn einer Maus; die Maus wurde also gentechnisch so verändert, dass die Aktivierung der Kalziumkanäle der Neuronen einen Lichtimpuls verursacht.

Die Zeilen der Matrix sollen nun die einzelnen Zeitpunkte darstellen, die Spalten die einzelnen Bildpunkte (Pixel) des Videos. Da das Video aus 400 Einzelbildern besteht, die jeweils Pixel groß sind, ergibt sich so eine Matrix der Dimension .

Als Komponentenanzahl wählen wir . Die nichtnegative Matrix der Dimension gibt dann den Zeit-Faktor an, die Matrix der Dimension beschreibt die räumliche Verteilung. Die Zeilen der Matrix können dann wieder zu Bildern aufgefaltet werden. Es ergeben sich die folgenden Faktoren:

Die Matrixfaktorisierung kann somit aufzeigen, dass bestimmte Gruppen von Neuronen gemeinsam feuern. Dass die Gewichtungen nichtnegativ sind, ist hier klar von Vorteil, denn die Faktoren sind leichter interpretierbar, wenn keine Neuronen negativ gewichtet werden.

Berechnung[Bearbeiten | Quelltext bearbeiten]

Multiplikative Methode[Bearbeiten | Quelltext bearbeiten]

Lee und Seung gaben folgende multiplikative Update-Regel zur Bestimmung von und an:

Hierbei bezeichnet das Hadamard-Produkt, also die elementweise Multiplikation, und auch bei den Brüchen sollen Zähler und Nenner in jedem Eintrag dividiert werden. Diese Update-Regeln kann aus dem Gradientenabstieg unter Hinzunahme spezieller Vorfaktoren hergeleitet werden. Der Vorteil eines multiplikativen gegenüber eines additiven Gradientenabstiegs ist, dass die Faktoren automatisch das Vorzeichen beibehalten. Einer der Nachteile ist, dass Elemente von oder , die einmal null sind, nicht mehr positiv werden können.

Alternierende Least-Sqaures-Näherung[Bearbeiten | Quelltext bearbeiten]

Ein anderes Verfahren zur Bestimmung von und ist die Methode der alternierenden Least-Squares-Näherungen. Während das Minimierungsproblem in und gemeinsam nicht konvex ist, ist das Minimieren von für gegebenes und andersherum ein konvexes Problem und damit leichter zu lösen. In der Tat handelt es sich bei der Minimierung von für festes einfach um ein least-squares-Regressionsproblem (kleinste-Quadrate-Regression), bis auf die Einschränkung, dass nichtnegativ sein muss. Für das Regressionsproblem mit nichtnegativen Variablen (NNLS, nonnegative least squares) gibt es zwar keine einfache analytische Darstellung, aber durchdachte Algorithmen, mit deren Hilfe das Optimierungsproblem dann gelöst werden kann. Die Kostenfunktion wird in jedem Schritt garantiert verringert. Die meisten Software-Pakete für die Nichtnegative Matrixfaktorisierung benutzen dieses Verfahren.[6]

Initialisierung[Bearbeiten | Quelltext bearbeiten]

Da bei den iterativen Optimierungsverfahren nicht garantiert ist, dass sie ein globales Optimum finden, kann die Initialisierung der Faktoren und eine wichtige Rolle für das Endergebnis spielen. Statt einer zufälligen Initialisierung hat sich unter anderem die Initialisierung auf Grundlage einer zuvor ausgeführten Singulärwertzerlegung bewährt.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Literatur[Bearbeiten | Quelltext bearbeiten]

  • N. Gilis: Nonnegative Matrix Factorization. SIAM, 2020

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b Daniel D. Lee, H. Sebastian Seung: Learning the parts of objects by non-negative matrix factorization. In: Nature. Band 401, Nr. 6755, Oktober 1999, ISSN 1476-4687, S. 788–791, doi:10.1038/44565 (nature.com [abgerufen am 13. November 2022]).
  2. Pentti Paatero, Unto Tapper: Positive matrix factorization: A non-negative factor model with optimal utilization of error estimates of data values. In: Environmetrics. Band 5, Nr. 2, Juni 1994, S. 111–126, doi:10.1002/env.3170050203 (wiley.com [abgerufen am 13. November 2022]).
  3. C.H.Q. Ding, Tao Li, M.I. Jordan: Convex and Semi-Nonnegative Matrix Factorizations. In: IEEE Transactions on Pattern Analysis and Machine Intelligence. Band 32, Nr. 1, Januar 2010, ISSN 0162-8828, S. 45–55, doi:10.1109/TPAMI.2008.277 (ieee.org [abgerufen am 13. November 2022]).
  4. Paris Smaragdis: Non-negative Matrix Factor Deconvolution; Extraction of Multiple Sound Sources from Monophonic Inputs. In: Independent Component Analysis and Blind Signal Separation. Band 3195. Springer Berlin Heidelberg, Berlin, Heidelberg 2004, ISBN 3-540-23056-4, S. 494–499, doi:10.1007/978-3-540-30110-3_63 (springer.com [abgerufen am 13. November 2022]).
  5. Masashi Kondo, Kenta Kobayashi, Masamichi Ohkura, Junichi Nakai, Masanori Matsuzaki: Two-photon calcium imaging of the medial prefrontal cortex and hippocampus without cortical invasion. In: eLife. Band 6, 25. September 2017, ISSN 2050-084X, S. e26839, doi:10.7554/eLife.26839.
  6. Michael W. Berry, Murray Browne, Amy N. Langville, V. Paul Pauca, Robert J. Plemmons: Algorithms and applications for approximate nonnegative matrix factorization. In: Computational Statistics & Data Analysis. Band 52, Nr. 1, 15. September 2007, ISSN 0167-9473, S. 155–173, doi:10.1016/j.csda.2006.11.006 (sciencedirect.com [abgerufen am 13. November 2022]).