GPTQ uitgelegd draait om een geavanceerde post-training quantisatiemethode die AI-modellen drastisch verkleint zonder merkbaar kwaliteitsverlies. GPTQ (GPT Quantization) is in staat om bijvoorbeeld een model met miljarden parameters terug te brengen van 16-bit precisie naar slechts 3