ID บทความ: 000058700 ประเภทข้อมูล: การแก้ไขปัญหา การตรวจสอบครั้งล่าสุด: 20/05/2022

พบข้อผิดพลาด "มีข้อยกเว้นเกิดขึ้นระหว่างเรียกใช้งานตัวแทนที่ "REPLACEMENT_ID" เมื่อทําการแปลง SSD MobileNetV2 ที่ได้รับการฝึกมาเป็นพิเศษเป็น Intermediate Representation (IR)

สิ่งแวดล้อม

ชุดเครื่องมือโอเพนซอร์ส OpenVINO™ 2021.2  TensorFlow* 2.2 TensorFlow 1.15

BUILT IN - ARTICLE INTRO SECOND COMPONENT
สรุปข้อมูล

ขั้นตอนการแปลงโมเดล MobileNet V2 SSD แบบกําหนดเองเป็น IR โดยใช้ Model Optimizer

คำอธิบาย

แปลงโมเดล SSD MobileNetV2 ที่ได้รับการฝึกมาล่วงหน้าเป็น IR แต่ไม่สามารถแปลงโมเดลที่ผ่านการฝึกอบรมมาแล้วแบบกําหนดเองได้

  1. ส่งออกกราฟรุ่นที่ถูกตรึงไว้:

    python object_detection/export_inference_graph.py \ --input_type=image_tensor \ --pipeline_config_path={PIPELINE_CONFIG_PATH} \ --output_directory="exported_model" \ --trained_checkpoint_prefix="/content/models/research/helmet_detector/model.ckpt-10000"

  2. พยายามแปลงกราฟรุ่นที่เป็นตัวแปลงเป็น IR โดยใช้ Model Optimizer:

    python mo_tf.py \ --input_model ./exported_model/frozen_inference_graph.pb \ --tensorflow_use_custom_operations_config extensions/front/tf/ssd_v2_support.json \ --tensorflow_object_detection_api_pipeline_config output_dir output_ncs tensorflow_use_custom_operations_config ./helment_detector_tf1.config \ --input_shape [1,300,300,3] \ --reverse_input_channels \ --output_dir output_ncs \ --data_type FP16

  3. พบข้อผิดพลาด:

    [ ข้อผิดพลาด ] มีข้อยกเว้นเกิดขึ้นระหว่างเรียกใช้งานตัวแทนที่ "REPLACEMENT_ID" (): มีข้อยกเว้นที่ไม่คาดคิดเกิดขึ้นระหว่างการแยกคุณลักษณะสําหรับโหนด StatefulPartitionedCall/Postprocessor/BatchMultiClassNonMaxSuppression/map/while ข้อความข้อยกเว้นเดิม: '^Postprocessor/BatchMultiClassNonMaxSuppression/map/ในขณะที่/MultiClassNonMaxSuppression/SortByField/Assert/Assert/Assert'

ความละเอียด

ในคําสั่งการแปลง Model Optimizer ให้ใช้ไฟล์กําหนดค่าการดําเนินการแบบกําหนดเองที่เหมาะสมสําหรับโมเดล SSD MobileNetV2 ที่สร้างขึ้นด้วย TensorFlow* 1: ssd_support_api_v1.15.json โปรดดู หน้าต่อไปนี้สําหรับคําแนะนําในการแปลง: วิธีการแปลงรุ่น

python3./openvino/model-optimizer/mo_tf.py --input_model./detector/exported_model/frozen_inference_graph.pb --tensorflow_use_custom_operations_config./openvino/model-optimizer/extensions/front/tf /ssd_support_api_v1.15.json --tensorflow_object_detection_api_pipeline_config./detector/helment_detector_tf1.config --input_shape [1,300,300,3] --reverse_input_channels --data_type FP16

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับ 2 ผลิตภัณฑ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้