Random Forest

Een ensemble-algoritme dat veel decision trees combineert voor meer nauwkeurige voorspellingen dan één boom.

Uitleg

Random Forest is een krachtige ensemble-leermethod die veel decision trees combineert en hun voorspellingen aggregeert. In plaats van één decision tree te vertrouwen (die gevoelig is voor overfitting), traint het algoritme veel verschillende bomen op willekeurige subsets van data en features.

Voor classificatie stemt elke boom en de meerderheid wint. Voor regressie worden alle voorspellingen gemiddeld. Deze benadering leidt tot betere generalisatie en lagere overfitting. Random forests zijn ook robuust tegen uitschieters en werken goed met veel features.

Random forests zijn wijd gebruikt in praktische toepassingen omdat ze goed presteren zonder veel hyperparameter-tuning. Ze bieden ook feature importance-scores die aantonen welke features het belangrijkst zijn.

Voorbeelden

  • Kaggle-competities gebruik random forests vaak vanwege hun sterke prestaties
  • Banken gebruiken random forests voor klantenverloop-voorspelling (wie gaat weggaan?)
  • Medische onderzoeken gebruiken random forests voor ziektediagnose met hoge nauwkeurigheid

Trefwoorden

ensemble-methodemeerdere-bomenrobuustheidfeature-importance

Gerelateerde termen

Gerelateerde begrippen

Decision Tree, Ensemble-learning, Bagging

Over deze term

Wat is Random Forest?

Een ensemble-algoritme dat veel decision trees combineert voor meer nauwkeurige voorspellingen dan één boom.