Revision [83062cb]
Letzte Änderung am 2020-11-02 19:05:24 durch Oksana Neopagitova
ADDITIONS
## Random Forest


## Idee
Die Idee des Random Forest ist es die Varianz der herkömmlichen Entscheidungsbäume zu verringern. Dies soll dem Entscheidungsbaum eine höhere Trefferwahrscheinlichkeit bei der Vorhersage unbekannter Merkmalsvektoren geben. Hierfür wird, in jeder Iteration, durch ziehen mit zurücklegen (bootstrapping) aus der Trainingsmenge eine Untermenge gezogen. Da die Varianz aller Iterationen nun durch die Korrelation zwischen den Bäumen beschränkt wird, muss diese möglichst verringert werden. Dies geschieht durch eine Zufällige Merkmalsselektion vor jedem Teilungsprozess.
Die Entscheidung erfolgt schließlich durch ein Mehrheitsvotum aller Iterationen. [1]


## Algorithmus

![](/uploads/Random_Forest/Random_Forest.PNG)
Quelle:[2], vgl. [1]


## Parameter
>>* Die Anzahl der Iterationen ist wie bei allen Ensemble-Methoden ein entscheidender Parameter.
>>* Die Anzahl an zufällig gezogenen Merkmalen ist entscheiden für den Erfolg des Random Forest. Ein Standard wert hierfür ist die Wurzel aus der Anzahl an Merkmalen. Ist der Informationsgehalt der Merkmale jedoch unausgeglichen, kann es sein das die Anzahl höher ausfällt.
>>* Desweiteren müssen Parameter optimiert werden, welche den Basis-Entscheidungsbaum regulieren.
vgl. [1]

## Literatur

[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit "Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
DELETIONS
# Random Forest
## Idee
Die Idee des Random Forest ist es die Varianz der herkömmlichen Entscheidungsbäume zu verringern. Dies soll dem Entscheidungsbaum eine höhere Trefferwahrscheinlichkeit bei der Vorhersage unbekannter Merkmalsvektoren geben. Hierfür wird, in jeder Iteration, durch ziehen mit zurücklegen (bootstrapping) aus der Trainingsmenge eine Untermenge gezogen. Da die Varianz aller Iterationen nun durch die Korrelation zwischen den Bäumen beschränkt wird, muss diese möglichst verringert werden. Dies geschieht durch eine Zufällige Merkmalsselektion vor jedem Teilungsprozess.
Die Entscheidung erfolgt schließlich durch ein Mehrheitsvotum aller Iterationen. [1]
## Algorithmus
![](/uploads/Random_Forest/Random_Forest.PNG)
Quelle:[2], vgl. [1]
## Parameter
>>* Die Anzahl der Iterationen ist wie bei allen Ensemble-Methoden ein entscheidender Parameter.
>>* Die Anzahl an zufällig gezogenen Merkmalen ist entscheiden für den Erfolg des Random Forest. Ein Standard wert hierfür ist die Wurzel aus der Anzahl an Merkmalen. Ist der Informationsgehalt der Merkmale jedoch unausgeglichen, kann es sein das die Anzahl höher ausfällt.
>>* Desweiteren müssen Parameter optimiert werden, welche den Basis-Entscheidungsbaum regulieren.
vgl. [1]
## Literatur
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit "Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Revision [796d757]
Die älteste bekannte Version dieser Seite wurde von Tobias Dietz am 2018-10-01 17:51:12 erstellt
ADDITIONS
# Random Forest
## Idee
Die Idee des Random Forest ist es die Varianz der herkömmlichen Entscheidungsbäume zu verringern. Dies soll dem Entscheidungsbaum eine höhere Trefferwahrscheinlichkeit bei der Vorhersage unbekannter Merkmalsvektoren geben. Hierfür wird, in jeder Iteration, durch ziehen mit zurücklegen (bootstrapping) aus der Trainingsmenge eine Untermenge gezogen. Da die Varianz aller Iterationen nun durch die Korrelation zwischen den Bäumen beschränkt wird, muss diese möglichst verringert werden. Dies geschieht durch eine Zufällige Merkmalsselektion vor jedem Teilungsprozess.
Die Entscheidung erfolgt schließlich durch ein Mehrheitsvotum aller Iterationen. [1]
## Algorithmus
![](/uploads/Random_Forest/Random_Forest.PNG)
Quelle:[2], vgl. [1]
## Parameter
>>* Die Anzahl der Iterationen ist wie bei allen Ensemble-Methoden ein entscheidender Parameter.
>>* Die Anzahl an zufällig gezogenen Merkmalen ist entscheiden für den Erfolg des Random Forest. Ein Standard wert hierfür ist die Wurzel aus der Anzahl an Merkmalen. Ist der Informationsgehalt der Merkmale jedoch unausgeglichen, kann es sein das die Anzahl höher ausfällt.
>>* Desweiteren müssen Parameter optimiert werden, welche den Basis-Entscheidungsbaum regulieren.
vgl. [1]
## Literatur
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit "Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden