Uitleg
Transfer learning bespaart tijd en computerbronnen door bestaande kennis hergebruikt. In plaats van een model helemaal opnieuw te trainen, begin je met een model dat al op een ander probleem getraind is.
Bijvoorbeeld: een model getraind op miljarden afbeeldingen van het internet leerde al veel over hoe je objecten herkent. Je kunt dit model "fine-tunen" op jouw specifieke probleem (bijv. honden versus katten) met veel minder trainingsdata.
Dit werkt omdat veel lage-levelkennis (randen herkennen, patronen herkennen) universeel bruikbaar is tussen gerelateerde taken. Transfer learning heeft revolutionair gemaakt hoe we AI-modellen trainen, vooral voor taken met beperkte trainingsdata.
⚡ Voorbeelden
- •Pretrainen op ImageNet, dan fine-tune voor diagnostische röntgenfoto's
- •Pretrainen op Wikipedia voor taalverwerking, dan fine-tune voor juridische documentclassificatie
- •Pretrainen op groot spraakdataset, dan fine-tune voor specifiek accent of dialect