Bias-Variance Tradeoff

Bias-variance tradeoff beschrijft de balans tussen modelbias (onderfitting) en modelvariantie (overfitting) voor optimale generalisatie.

Uitleg

Dit is een fundamenteel concept in machine learning. Bias verwijst naar fouten van onnauwkeurige aannames (underfitting); variance verwijst naar gevoeligheid voor trainingsdata-fluctuaties (overfitting).

Je kunt niet beide volledig minimaliseren. Als je bias minimaliseert door een complexer model te gebruiken, stijgt variance meestal. Omgekeerd, eenvoudigere modellen hebben lagere variance maar hogere bias.

Het kunst is het juiste evenwicht te vinden voor je specifieke probleem. Regelmatig evalueren op validatiegegevens helpt: als trainingsfouten laag zijn maar validatiefouten hoog, heb je te veel variance (overfitting). Als beide hoog zijn, heb je te veel bias (underfitting).

Voorbeelden

  • Lineair model = hoog bias, laag variance; polynomiaal model = laag bias, hoog variance
  • Klein neuraal netwerk = hoog bias; zeer groot netwerk = hoog variance
  • Weinig trainingsdata = meer variance; veel trainingsdata = meer bias kan tolereren

Trefwoorden

balansbiasvariancegeneralisatietradeoff

Gerelateerde termen

Gerelateerde begrippen

Overfitting, Underfitting, Validatie

Over deze term

Wat is Bias-Variance Tradeoff?

Bias-variance tradeoff beschrijft de balans tussen modelbias (onderfitting) en modelvariantie (overfitting) voor optimale generalisatie.