ID บทความ: 000093057 ประเภทข้อมูล: ข้อมูลผลิตภัณฑ์และเอกสารประกอบ การตรวจสอบครั้งล่าสุด: 20/12/2022

เป็นไปได้หรือไม่ที่จะใช้งานรุ่น TensorFlow* Lite กับ Intel® Neural Compute Stick 2 (Intel® NCS2)

BUILT IN - ARTICLE INTRO SECOND COMPONENT
สรุปข้อมูล

ตัวเพิ่มประสิทธิภาพโมเดล OpenVINO™ ไม่รองรับรุ่น TensorFlow* Lite ที่จะแปลงเป็น IR

คำอธิบาย

ไม่สามารถระบุได้ว่าสามารถอนุมานรุ่น TensorFlow Lite บนIntel® NCS2ได้หรือไม่

ความละเอียด

อนุญาตให้โหลดรุ่น ONNX* หรือ Intermediate Representation (IR) โดยตรงลงใน OpenVINO™ Inference Engine (รวมถึง MYRIAD) เท่านั้น ในขณะที่ Model Optimizer ไม่รองรับการแปลงไฟล์ .tflite เป็นรูปแบบ IR ตามปกติ

โดยสรุปแล้ว OpenVINO™ Model Optimizer ไม่รองรับการแปลง Tensorflow Lite models เป็น IR

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับ 1 ผลิตภัณฑ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้