ข้ามไปที่เนื้อหาหลัก
ฐานความรู้เกี่ยวกับการสนับสนุน

การแปลงรุ่น INT8 เป็น Intermediate Representation (IR)

ประเภทข้อมูล: การแก้ไขปัญหา   |   ID บทความ: 000058759   |   การตรวจสอบครั้งล่าสุด: 06/09/2022

คำอธิบาย

ในตัวอย่างสุดท้ายของ คู่มือการเพิ่มประสิทธิภาพความแม่นยําต่ํา จะมีการกล่าวถึงการฝึกอบรมที่ทราบถึงปริมาณ ซึ่งกล่าวได้ว่าช่วยให้ผู้ใช้ได้รับโมเดลที่ปรับประสิทธิภาพใหม่อย่างถูกต้องซึ่งสามารถแปลงเป็น IR ได้ อย่างไรก็ตาม จะไม่มีรายละเอียดอื่นๆ

ความละเอียด

การฝึกอบรมแบบ Quantization-Aware โดยใช้เฟรมเวิร์กการฝึกอบรมที่เข้ากันได้OpenVINO™ รองรับโมเดลที่เขียนบน TensorFlow QAT หรือ PyTorch NNCF พร้อมส่วนขยายการปรับประสิทธิภาพ

NNCF เป็นเฟรมเวิร์กที่ใช้ PyTorch ที่รองรับโมเดล Deep Learning ที่หลากหลายสําหรับกรณีการใช้งานต่างๆ อีกทั้งยังปรับใช้การฝึกอบรมที่ทราบถึงการรองรับโหมดและการตั้งค่าการหาปริมาณที่แตกต่างกัน และสนับสนุนอัลกอริธึมการบีบอัดต่างๆ รวมถึงการตัดทอนแบบ Quantization, Binarization, Sparsity และการตัดแต่งตัวกรอง

เมื่อการปรับแต่งเสร็จสิ้นสามารถส่งออกโมเดลที่ปรับแต่งอย่างแม่นยําเป็นรูปแบบ ONNX ซึ่งสามารถใช้งานโดย Model Optimizer เพื่อสร้างไฟล์ Intermediate Representation (IR) และอนุมานกับ OpenVINO™ Inference Engine ได้ในภายหลัง

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับผลิตภัณฑ์ 4 รายการ
ซอฟต์แวร์โปรเซสเซอร์ Intel® Xeon Phi™ OpenVINO™ toolkit Performance Libraries

ผลิตภัณฑ์ที่ยุติการผลิต

Intel® Developer Cloud สำหรับ Edge

ข้อสงวนสิทธิ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้

ต้องการความช่วยเหลือเพิ่มเติมหรือไม่?

ติดต่อฝ่ายสนับสนุน
ติดต่อฝ่ายสนับสนุน