فيما يلي ملخص رمز من سطر واحد في MLX لمنشور مدونة @thinkymachines حول عدم الحتمية في استدلال LLM. أعتقد أن الفرق أكبر كلما انخفضت الدقة ، حيث تحصل على تأثيرات أكبر من عدم ارتباط رياضيات FP. ومن المثير للاهتمام أن هذا يعني أن التدريب بدقة منخفضة (فكر في NVFP4) قد يجعل التوليد أكثر حساسية لحجم الدفعة.