Iterative Dichotomiser 3

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Iterative Dichotomiser 3 (ID3) ist ein Algorithmus, der zur Entscheidungsfindung dient. Er wird bei Entscheidungsbäumen eingesetzt. Der australische Forscher J. Ross Quinlan publizierte diesen Algorithmus erstmals im Jahr 1986.[1] ID3 war in seinen ersten Jahren sehr einflussreich. Er findet auch heute noch in einigen Produkten Verwendung. ID3 gilt als Vorgänger des C4.5-Algorithmus.

ID3 wird verwendet, wenn bei großer Datenmenge viele verschiedene Attribute von Bedeutung sind und deshalb ein Entscheidungsbaum ohne große Berechnungen generiert werden soll. Somit entstehen meist einfache Entscheidungsbäume. Es kann aber nicht garantiert werden, dass keine besseren Bäume möglich wären.

Die Basisstruktur von ID3 ist iterativ. Es werden zu jedem noch nicht benutzten Attribut Entropien bezüglich der Trainingsmenge berechnet. Das Attribut mit dem höchsten Informationsgewinn (englisch: information gain) bzw. der kleinsten Entropie, wird gewählt und daraus ein neuer Baum-Knoten generiert. Das Verfahren terminiert, wenn alle Trainingsinstanzen klassifiziert wurden, d. h. wenn jedem Blattknoten eine Klassifikation zugeordnet ist.

Algorithmus[Bearbeiten | Quelltext bearbeiten]

Wenn alle Elemente aus (Daten) zu einer Klasse gehören

Dann
// Erzeuge ein Blatt //
Konstruiere ein Blatt mit der Klasse als Bezeichner
Sonst
// Erzeuge rekursiv einen Teilbaum //
Wähle das „informativste“ Merkmal
Beginn: Für_alle vorkommenden Werte von Merkmal
Konstruiere alle Teilbäume rekursiv mit den entsprechenden Teilmengen als Daten
Ende: Für_alle
Konstruiere einen Baumknoten mit Bezeichner und hänge alle erzeugten Teilbäume an
Ende Sonst

Auswahl der Attribute (Merkmale)[Bearbeiten | Quelltext bearbeiten]

Für die Bildung der Teilbäume wird jeweils entsprechend der Informationstheorie das informativste Attribut ausgewählt.

Sei die Menge der Trainingsbeispiele mit ihrer jeweiligen Klassifizierung, das zu prüfende Attribut aus der Menge der verfügbaren Attribute, die Menge der möglichen Attributwerte von und die Untermenge von , für die das Attribut den Wert annimmt. Der Informationsgewinn, der durch Auswahl des Attributs erzielt wird, errechnet sich dann als Differenz der Entropie von und der erwarteten/durchschnittlichen Entropie von bei Fixierung von :

.

Schließlich wählt man ein Attribut mit dem größtmöglichen Gewinn aus der Menge als das nächste Attribut.

Diese Wahl führt zur Bevorzugung von Attributen mit vielen Wahlmöglichkeiten und damit zu einem breiten Baum. Um dem entgegenzuwirken kann eine Normalisierung über die Anzahl der Wahlmöglichkeiten durchgeführt werden.

Siehe auch[Bearbeiten | Quelltext bearbeiten]

Weblinks[Bearbeiten | Quelltext bearbeiten]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. J. Ross Quinlan: Induction of Decision Trees. In: Machine Learning. Band 1, Nr. 1, März 1986, S. 81–106, doi:10.1007/BF00116251.