ข้ามไปที่เนื้อหาหลัก
ฐานความรู้เกี่ยวกับการสนับสนุน

ทําไมรูปแบบโมเดล Quantized จึงยังคงใช้ FP32 แทน INT8

ประเภทข้อมูล: ข้อมูลผลิตภัณฑ์และเอกสารประกอบ   |   ID บทความ: 000095064   |   การตรวจสอบครั้งล่าสุด: 13/06/2023

คำอธิบาย

  • โมเดล ONNX แบบ Quantized ที่มีรูปแบบความแม่นยํา FP32
  • ใช้งานฟังก์ชัน compress_model_weights เพื่อลดขนาดไฟล์ bin หลังจากทําการวัดปริมาณหลังการฝึกอบรม
  • รวบรวมรุ่นและสังเกตว่าผลลัพธ์ของรุ่นอยู่ใน FP32 แทนที่จะเป็น INT8

ความละเอียด

ในระหว่างการแบ่งปริมาณเฉพาะการดําเนินงานที่จําเป็นในมุมมองของประสิทธิภาพกําลังถูกวัดปริมาณ การดําเนินการที่เหลืออยู่จะยังคงเป็น FP32 ในเอาต์พุต

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับผลิตภัณฑ์ 1 รายการ

ข้อสงวนสิทธิ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้

ต้องการความช่วยเหลือเพิ่มเติมหรือไม่?

ติดต่อฝ่ายสนับสนุน
ติดต่อฝ่ายสนับสนุน