Uitleg
Black-box modellen zijn vooral grote neurale netwerken. Ze doen goede voorspellingen, maar het is onduidelijk waarom: duizenden parameters en verborgen lagen maken beslissingen onleesbaar voor mensen.
Dit is een groot probleem in kritische toepassingen: hoe kun je een creditbesluit uitleggen aan een klant als het model zelf niet weet waarom het "nee" zei? Dit leidt tot problemen met transparantie, bias en vertrouwen.
Tegenstelling: white-box modellen (beslisbomen, lineaire regressie) zijn begrijpelijk. Er is een groeiende beweging voor "explainable AI" (XAI) om black-box modellen begrijpelijker te maken via interpretabiliteitstechnieken.
⚡ Voorbeelden
- •Diep neuraal netwerk voor medische diagnose: zeer accuraat maar onduidelijke redenen
- •Random forest: samengesteld model moeilijk uit te leggen hoewel redelijk begrijpelijk
- •Linear regression: white-box, volledig begrijpelijk hoe beslissing genomen