การแปลงโมเดล API การตรวจจับวัตถุ TensorFlow สําหรับการอนุมานบน Intel® Neural Compute Stick 2 (Intel® NCS 2)
ทําตามคําแนะนํา เริ่มต้นใช้งาน สําหรับ Intel® NCS 2 เพื่อติดตั้งชุดเครื่องมือ OpenVINO™ และกําหนดค่า Intel® NCS 2 ของคุณ
หมาย เหตุ | คู่มือเริ่มต้นใช้งานและบทความนี้ใช้กับผู้ใช้ที่มี neural Compute Stick ดั้งเดิม Intel® Movidius™ |
สคริปต์ mo_tf.py อยู่ในไดเรกทอรี ~/intel/openvino/deployment_tools/model_optimizer ต้องระบุพารามิเตอร์ต่อไปนี้เมื่อแปลงรุ่นของคุณเป็น Intermediate Representation (IR) สําหรับการอนุมานด้วย Intel® NCS 2
--input_model <path_to_frozen.pb>
- ดูข้อมูลเพิ่มเติมได้ที่ โมเดลกําหนดเองการตรึง อ้างอิงใน Python
--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>
- ไฟล์กําหนดค่าจะอยู่ใน ไดเรกทอรี ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf เลือกไฟล์กําหนดค่าที่ตรงกับโครงสร้างของรุ่นของคุณ ดู วิธีการแปลงโมเดล สําหรับรายการไฟล์กําหนดค่า
--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>
--reverse_input_channels
- คุณต้องระบุพารามิเตอร์นี้หากคุณใช้โมเดล TensorFlow Object Detection API ที่แปลงแล้วกับแอปพลิเคชันตัวอย่าง Inference Engine
--data_type FP16
- ระบุรูปแบบจุดลอยตัวที่มีความแม่นยําครึ่งหนึ่งให้ทํางานบน Intel® NCS 2
ตัวอย่างคําสั่ง Model Optimizer:
python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16
ข้อมูลเพิ่มเติมเกี่ยวกับ Model Optimizer สามารถดูได้ในเอกสารประกอบชุดเครื่องมือ OpenVINO™