การแปลงโมเดล API การตรวจจับวัตถุ TensorFlow สําหรับการอนุมานบน Intel® Neural Compute Stick 2 (Intel® NCS 2)

เอกสาร

การแก้ไขปัญหา

000055228

06/06/2023

ทําตามคําแนะนํา เริ่มต้นใช้งาน สําหรับ Intel® NCS 2 เพื่อติดตั้งชุดเครื่องมือ OpenVINO™ และกําหนดค่า Intel® NCS 2 ของคุณ

หมาย เหตุ คู่มือเริ่มต้นใช้งานและบทความนี้ใช้กับผู้ใช้ที่มี neural Compute Stick ดั้งเดิม Intel® Movidius™

สคริปต์ mo_tf.py อยู่ในไดเรกทอรี ~/intel/openvino/deployment_tools/model_optimizer ต้องระบุพารามิเตอร์ต่อไปนี้เมื่อแปลงรุ่นของคุณเป็น Intermediate Representation (IR) สําหรับการอนุมานด้วย Intel® NCS 2

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • ไฟล์กําหนดค่าจะอยู่ใน ไดเรกทอรี ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf เลือกไฟล์กําหนดค่าที่ตรงกับโครงสร้างของรุ่นของคุณ ดู วิธีการแปลงโมเดล สําหรับรายการไฟล์กําหนดค่า

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • คุณต้องระบุพารามิเตอร์นี้หากคุณใช้โมเดล TensorFlow Object Detection API ที่แปลงแล้วกับแอปพลิเคชันตัวอย่าง Inference Engine

--data_type FP16

  • ระบุรูปแบบจุดลอยตัวที่มีความแม่นยําครึ่งหนึ่งให้ทํางานบน Intel® NCS 2

ตัวอย่างคําสั่ง Model Optimizer:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

ข้อมูลเพิ่มเติมเกี่ยวกับ Model Optimizer สามารถดูได้ในเอกสารประกอบชุดเครื่องมือ OpenVINO™