ข้ามไปที่เนื้อหาหลัก
ฐานความรู้เกี่ยวกับการสนับสนุน

ไม่สามารถเรียกใช้การอนุมานด้วยโมเดลการนําเสนอระดับกลาง (IR) YOLOv5s ที่แปลงแล้ว

ประเภทข้อมูล: การแก้ไขปัญหา   |   ID บทความ: 000093870   |   การตรวจสอบครั้งล่าสุด: 13/11/2023

คำอธิบาย

ไม่สามารถระบุวิธีเรียกใช้ YOLOv5s และ YOLOv7-tiny model บน Raspberry* Pi 4B ด้วย Intel® NCS2 ได้

ความละเอียด

  1. โคลน คลังข้อมูล YOLOv5 GitHub*:
    git clone https://github.com/ultralytics/yolov5
  2. ข้อกําหนดเบื้องต้นในการติดตั้ง:
    cd yolov5
    pip install -r requirements.txt
  3. ดาวน์โหลด โมเดล YOLOv5s PyTorch จากจุดตรวจสอบที่มีข้อจํากัด
  4. แปลง โมเดล YOLOv5s PyTorch เป็นรูปแบบ ONNX*:
    python export.py --weights yolov5s.pt --img 640 --batch 1 --include onnx
  5. แปลง โมเดล YOLOv5s ONNX* จากอย่างเป็นทางการให้เป็นรูปแบบ Intermediate Representation (IR) โดยใช้แพ็คเกจ openvino-dev[onnx] pip ด้วยคําสั่งต่อไปนี้:
    mo --input_model yolov5s.onnx --output <output_nodes> --data_type FP16 --scale_values=images[255] --input_shape=[1,3,640,640] --input=images
  6. เรียกใช้งาน การ สาธิต Python ตรวจจับวัตถุ โดยใช้โมเดล YOLOv5s IR ด้วยคําสั่งต่อไปนี้:
    python3 object_detection_demo.py -at yolov4 -d MYRIAD -m yolov5s.xml -i <path_to_input>

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับผลิตภัณฑ์ 1 รายการ

ข้อสงวนสิทธิ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้

ต้องการความช่วยเหลือเพิ่มเติมหรือไม่?

ติดต่อฝ่ายสนับสนุน
ติดต่อฝ่ายสนับสนุน