Ensemble learning

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Ensemblemethoden werden in der Statistik und für Machine Learning eingesetzt.[1] Sie nutzen eine endliche Menge von verschiedenen Lernalgorithmen, um bessere Ergebnisse zu erhalten als mit einem einzelnen Lernalgorithmus. Die Berechnung der Ergebnisse dieser Menge von Algorithmen dauert zwar länger als die Auswertung eines einzelnen Algorithmus, allerdings kann bereits mit einer viel geringeren Rechentiefe ein in etwa gleich gutes Ergebnis erreicht werden.

Ein wichtiges Einsatzgebiet von Ensemble Learning sind Entscheidungsbäume. Ein großer Entscheidungsbaum neigt zu hohen Fehlerraten und einer hohen Varianz, da von der Wurzel zu den Blättern viele Entscheidungsknoten liegen, die alle unter Unsicherheit durchlaufen werden. Bagging würde hier etwa viele kleine Entscheidungsbäume berechnen, und den Durchschnitt ihrer Ergebnisse verwenden, wodurch die Varianz (und damit auch die Fehlerrate) deutlich sinkt.

Optimum: Bayes-Klassifikator

[Bearbeiten | Quelltext bearbeiten]

Der Bayes-Klassifikator weist eine Klasse nach folgender Formel zu:

wobei die Menge der möglichen Klassen ist, der Hypothesenraum, eine Wahrscheinlichkeit und die Trainingsdaten.

Es kann sogar gezeigt werden, dass kein anderer Klassifikator (also auch kein anderes Ensemble) im Erwartungswert diese Methode übertreffen kann. Leider lässt sich dieses Verfahren nicht praktisch einsetzen, da über alle Hypothesen im Hypothesenraum iteriert und dieser Raum in den allermeisten Fällen viel zu groß zum Abzählen ist.

Arten von Ensembles

[Bearbeiten | Quelltext bearbeiten]

Bagging kombiniert mehrere Vorhersagen aus Regressions- oder Klassifikationsmodellen, wobei die einzelnen Vorhersagen gleich gewichtet und am Ende aggregiert wird, um den Vorhersagewert zu bestimmen.[2] Zwei häufig verwendete Aggregierung sind der Mittelwert oder der Median. Diese Methode wird dann Bootstrap robust aggregation (kurz Bragging) genannt. Bagging mithilfe des Mittelwertes findet zum Beispiel bei Random Forests Anwendung.

Boosting (engl. „Verstärken“) fusioniert viele schwache Klassifikatoren zu einem starken Klassifikator. Dieses allgemeine Verfahren hat sehr viele verschiedene Implementierungen, die bekannteste ist AdaBoost oder XGBoost (gradient-boosted trees).

Beim Voting wird das im Ensemble am häufigsten vorhergesagte Ergebnis als Ergebnis des Ensembles verwendet.

Beim Stacking sind die Ausgaben der einzelnen Modelle eines Ensembles die Eingaben für ein weiteres Machine Learning Modell. Dieses Modell ist darauf trainiert, aus den neuen Eingaben auf das Resultat zu schließen.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Murphy: Machine Learning: A Probabilistic Perspective. Hrsg.: MIT Press. 2012.
  2. Leo Breiman: Bagging predictors. In: Machine Learning. Band 24, Nr. 2, 1. August 1996, ISSN 0885-6125, S. 123–140, doi:10.1007/BF00058655 (springer.com [abgerufen am 15. März 2016]).