ID บทความ: 000092935 ประเภทข้อมูล: ข้อมูลผลิตภัณฑ์และเอกสารประกอบ การตรวจสอบครั้งล่าสุด: 28/02/2023

เป็นไปได้หรือไม่ที่จะปรับใช้ไปป์ไลน์การอนุมานรันไทม์ OpenVINO™ด้วย Intermediate Representation (IR)

BUILT IN - ARTICLE INTRO SECOND COMPONENT
สรุปข้อมูล

ขั้นตอนการปรับใช้ไปป์ไลน์การอนุมาน OpenVINO™รันไทม์กับ IR

คำอธิบาย
  1. โมเดล TensorFlow* ที่แปลงเป็น IR
  2. ไม่สามารถระบุขั้นตอนการปรับใช้ OpenVINO™ไปป์ไลน์การอนุมานรันไทม์กับ IR ได้
ความละเอียด
  1. Create* คอร์รันไทม์ OpenVINO™
    import openvino.runtime as ov
    core = ov.Core()

     
  2. คอมไพล์ รุ่น
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. สร้าง คําขอ Infer
    infer_request = compiled_model.create_infer_request()
     
  4. ตั้ง ค่า อินพุต
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. เริ่ม การอนุมาน
    infer_request.start_async()
    infer_request.wait()

     
  6. ประมวลผล ผลลัพธ์การอนุมาน
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

ผลิตภัณฑ์ที่เกี่ยวข้อง

บทความนี้จะนำไปใช้กับ 1 ผลิตภัณฑ์

เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้