Kwantisatie

Techniek om model-gewichten van hogere precisie (float32) naar lagere precisie (int8) te converteren.

Uitleg

Kwantisatie vermindert de bits gebruikt om modelgewichten op te slaan/berekenen. Float32 (32 bits) kan worden gecomprimeerd tot int8 (8 bits), wat 4x minder geheugen vereist. Dit helpt modellen sneller en goedkoper uit te voeren.

Mogelijk verlies van nauwkeurigheid, maar moderne kwantisatietechnieken behouden meestal de meeste performantie.

Voorbeelden

  • Taalmodel quantisatie van float32 naar int8 voor 4x snelheid
  • ONNX Runtime quantisatie voor mobiele inference
  • Quantization-aware training om verlies te minimaliseren

Trefwoorden

precisiecompressiegeheugensnelheidbits

Over deze term

Wat is Kwantisatie?

Techniek om model-gewichten van hogere precisie (float32) naar lagere precisie (int8) te converteren.