ภาพขนาดย่อ Napatech

IPU ลดค่าใช้จ่ายในการประมวลผลในเวิร์กโหลดการจัดเก็บข้อมูล

Napatech ผสานรวม F2070X IPU ที่ใช้ Intel® IPU เข้ากับซอฟต์แวร์ Link-Storage* เพื่อถ่ายโอน NVMe บนเวิร์กโหลด TCP ซึ่งช่วยลดค่าใช้จ่ายในการประมวลผล

สรุปข้อมูล

  • ศูนย์ข้อมูลระดับองค์กรและคลาวด์กำลังนำเทคโนโลยีการจัดเก็บข้อมูล NVMe/TCP มาใช้มากขึ้น เนื่องจากข้อได้เปรียบด้านประสิทธิภาพ เวลาแฝง ความสามารถในการปรับขนาด การจัดการ และการใช้ทรัพยากร อย่างไรก็ตาม การใช้ปริมาณงานตัวเริ่มต้นพื้นที่จัดเก็บข้อมูลที่จำเป็นบน CPU โฮสต์ของเซิร์ฟเวอร์จะทำให้เกิดค่าใช้จ่ายในการประมวลผลที่สำคัญ และจำกัดจำนวนคอร์ CPU ที่พร้อมใช้งานสำหรับการเรียกใช้บริการและแอปพลิเคชัน

  • โซลูชันฮาร์ดแวร์บวกซอฟต์แวร์แบบผสานรวมของ Napatech ซึ่งประกอบด้วยชุดซอฟต์แวร์ Link-Storage ที่ทำงานบน F2070X IPU แก้ไขปัญหานี้ด้วยการลดเวิร์กโหลดพื้นที่จัดเก็บข้อมูลจาก CPU โฮสต์ไปยัง IPU ในขณะที่ยังคงรักษาความเข้ากันได้ของซอฟต์แวร์เต็มรูปแบบในระดับแอปพลิเคชัน

  • โซลูชันการถ่ายโอนข้อมูลของอุปกรณ์จัดเก็บข้อมูลของ Napatech ช่วยเพิ่มพื้นที่คอร์ CPU โฮสต์ ซึ่งฟังก์ชันการจัดเก็บข้อมูลจะไม่ได้ใช้ถ้าไม่ได้เพิ่มพื้นที่ ทำงานได้ดีกว่าการใช้งานซอฟต์แวร์อย่างมีนัยสำคัญ ซึ่งช่วยลด CAPEX ของศูนย์ข้อมูล, OPEX และการใช้พลังงาน นอกจากนี้ยังแนะนำการแยกการรักษาความปลอดภัยเข้าสู่ระบบ ซึ่งเพิ่มการป้องกันการโจมตีทางไซเบอร์

author-image

โดย

โลโก้ NVM Expressบทสรุปโซลูชันนี้อธิบายว่าโซลูชันฮาร์ดแวร์บวกซอฟต์แวร์ที่ผสานรวมของ Napatech ถ่ายเวิร์กโหลดอุปกรณ์จัดเก็บข้อมูล NVMe/TCP จาก CPU โฮสต์ไปยัง IPU ได้อย่างไร ซึ่งช่วยลด CAPEX, OPEX และการใช้พลังงานลงอย่างมาก นอกจากนี้ยังแนะนำการแยกการรักษาความปลอดภัยเข้าสู่ระบบ ซึ่งเพิ่มการป้องกันการโจมตีทางไซเบอร์

NVMe Over TCP คืออะไร

NVMe/TCP เป็นเทคโนโลยีการจัดเก็บข้อมูลที่ช่วยให้สามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล Non-Volatile Memory Express (NVMe) ผ่านเครือข่ายโดยใช้แฟบริคศูนย์ข้อมูลมาตรฐาน ดูรูป 1

ศูนย์ข้อมูลคลาวด์และองค์กรสมัยใหม่กำลังนำ NVME/TCP มาใช้มากขึ้น เนื่องจากมีข้อได้เปรียบที่น่าสนใจ ซึ่งมีให้มากกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเก่า เช่น Internet Small Computer System Interface (iSCSI) Fibre Channel:

รูปที่ 1 สถาปัตยกรรมการจัดเก็บข้อมูลแบบแยกส่วน

 

  • ประสิทธิภาพสูงขึ้น: NVMe ได้รับการออกแบบมาเพื่อใช้ประโยชน์อย่างเต็มที่จากโซลิดสเตทไดรฟ์ (SSD) ที่ใช้ NAND ความเร็วสูงที่ทันสมัย และให้อัตราการถ่ายโอนข้อมูลที่เร็วกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเดิมอย่างมาก NVMe/TCP ขยายคุณประโยชน์เหล่านี้ไปยังสภาพแวดล้อมการจัดเก็บข้อมูลแบบเครือข่าย จึงช่วยให้ศูนย์ข้อมูลสามารถเข้าถึงการจัดเก็บข้อมูลประสิทธิภาพสูงบนแฟบริค

  • เวลาแฝงที่ลดลง: ลักษณะเวลาแฝงต่ำของ NVMe/TCP สำคัญยิ่งต่อแอปพลิเคชันที่ต้องใช้เดต้าจำนวนมากและเวิร์กโหลดแบบเรียลไทม์ NVMe/TCP สามารถช่วยลดเวลาแฝงในการเข้าถึงพื้นที่จัดเก็บข้อมูลและปรับปรุงประสิทธิภาพโดยรวมของแอปพลิเคชัน โดยการลดค่าใช้จ่ายในการสื่อสารและกำจัดความจำเป็นในการแปลงโปรโตคอล

  • ความสามารถในการปรับขนาด: ศูนย์ข้อมูลมักจัดการกับการปรับใช้พื้นที่จัดเก็บข้อมูลขนาดใหญ่ และ NVMe/TCP ช่วยให้สามารถปรับขนาดได้อย่างราบรื่นโดยมอบโซลูชันการเข้าถึงพื้นที่จัดเก็บข้อมูลที่ยืดหยุ่นและมีประสิทธิภาพผ่านเครือข่าย เมื่อจำนวนอุปกรณ์ NVMe เพิ่มมากขึ้น ศูนย์ข้อมูลสามารถรักษาระดับประสิทธิภาพสูงได้โดยไม่มีปัญหาคอขวดอย่างมีนัยสำคัญ

  • พูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน: NVMe/TCP ช่วยให้สามารถสร้างพูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน ซึ่งสามารถเข้าถึงได้โดยเซิร์ฟเวอร์และแอปพลิเคชันหลายเครื่องพร้อมกัน สถาปัตยกรรมพื้นที่จัดเก็บข้อมูลที่ใช้ร่วมกันนี้ปรับปรุงการใช้ทรัพยากรและลดความยุ่งยากในการจัดการพื้นที่เก็บข้อมูล ซึ่งช่วยประหยัดต้นทุนได้อย่างมาก

  • ความเข้ากันได้ของโครงสร้างพื้นฐานแบบเดิม: ศูนย์ข้อมูลมักจะมีโครงสร้างพื้นฐานที่มีอยู่ซึ่งสร้างขึ้นบนเครือข่าย Ethernet, InfiniBand หรือ Fibre Channel NVMe/TCP ช่วยให้พวกเขาสามารถใช้ประโยชน์จากการลงทุนแฟบริคในปัจจุบัน ในขณะที่ผสานรวมเทคโนโลยีการจัดเก็บข้อมูลที่ใช้ NVMe ที่ใหม่กว่า โดยไม่ต้องยกเครื่องโครงสร้างพื้นฐานเครือข่ายทั้งหมด

  • การใช้ทรัพยากรอย่างมีประสิทธิภาพ: NVMe/TCP ช่วยให้สามารถใช้ทรัพยากรได้ดีขึ้น โดยลดความจำเป็นในการใช้ทรัพยากรพื้นที่จัดเก็บข้อมูลเฉพาะในแต่ละเซิร์ฟเวอร์ เซิร์ฟเวอร์หลายตัวสามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ที่ใช้ร่วมกันผ่านเครือข่าย ซึ่งช่วยเพิ่มประสิทธิภาพการใช้ทรัพยากรพื้นที่จัดเก็บ NVMe ที่มีราคาแพง

  • ล้ำสมัย: ในขณะที่ศูนย์ข้อมูลพัฒนาและนำเทคโนโลยีการจัดเก็บข้อมูลที่รวดเร็วขึ้นมาใช้ NVMe/TCP มอบแนวทางการเข้าถึงพื้นที่เก็บข้อมูลที่คาดการณ์เหตุการณ์ในอนาคตล่วงหน้า เพื่อให้มั่นใจว่าเครือข่ายการจัดเก็บข้อมูลทันกับความต้องการที่เพิ่มขึ้นของแอปพลิเคชันและเวิร์กโหลดสมัยใหม่

โดยรวมแล้ว NVMe/TCP นำเสนอโซลูชันการจัดเก็บข้อมูลที่ทรงพลังและยืดหยุ่นสำหรับศูนย์ข้อมูล ทำให้มีประสิทธิภาพสูง เวลาแฝงต่ำ และการใช้ทรัพยากรอย่างมีประสิทธิภาพในสภาพแวดล้อมการจัดเก็บข้อมูลที่ใช้ร่วมกันและปรับขนาดได้

ข้อจำกัดของสถาปัตยกรรมการจัดเก็บข้อมูลเฉพาะซอฟต์แวร์

แม้จะมีประโยชน์ที่น่าสนใจของ NVMe/TCP สำหรับการจัดเก็บข้อมูล แต่ผู้ปฏิบัติงานศูนย์ข้อมูลจะต้องตระหนักถึงข้อจำกัดหลักๆ เกี่ยวกับการใช้งาน ซึ่งบริการตัวเริ่มต้นการจัดเก็บข้อมูลที่จำเป็นทั้งหมดทำงานในซอฟต์แวร์บน CPU เซิร์ฟเวอร์ของโฮสต์ ดูรูปที่ 2

อุปกรณ์จัดเก็บข้อมูลเครือข่าย
รูปที่ 2: อุปกรณ์จัดเก็บข้อมูลเครือข่ายที่ใช้ซอฟต์แวร์

 

ประการแรก ความเสี่ยงด้านความปลอดภัยระดับระบบจะปรากฏขึ้น หากซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ หรือสวิตช์เสมือน (vSwitch) ถูกโจมตีจากการโจมตีทางไซเบอร์

ประการที่สอง ไม่มีวิธีใดที่จะรับประกันการแยกส่วนระหว่างเวิร์กโหลดของผู้เช่าโดยสมบูรณ์ สถาปัตยกรรมเดียวโฮสต์แอปพลิเคชันและข้อมูลของลูกค้าหลายรายในสภาพแวดล้อมที่มีผู้เช่าหลายราย เอฟเฟกต์ “เพื่อนบ้านเสียงดัง” เกิดขึ้นเมื่อแอปพลิเคชันหรือเครื่องเสมือน (VM) ใช้ทรัพยากรที่มีอยู่มากที่สุดและลดประสิทธิภาพของระบบสำหรับผู้เช่ารายอื่นบนโครงสร้างพื้นฐานที่ใช้ร่วมกัน

สุดท้ายนี้ คอร์ประมวลผล CPU ของโฮสต์ส่วนใหญ่จำเป็นสำหรับการเรียกใช้บริการโครงสร้างพื้นฐาน เช่น ซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ และ vSwitch ซึ่งช่วยลดจำนวนคอร์ CPU ที่สามารถสร้างรายได้สำหรับ VM, คอนเทนเนอร์ และแอปพลิเคชัน รายงานระบุว่าโดยทั่วไปแล้วทรัพยากร CPU ของศูนย์ข้อมูลระหว่าง 30% ถึง 50% ถูกใช้โดยบริการโครงสร้างพื้นฐาน

ในระบบย่อยหน่วยเก็บข้อมูลประสิทธิภาพสูง อาจจำเป็นต้องมี CPU โฮสต์เพื่อเรียกใช้หลายโปรโตคอล เช่น Transmission Control Protocol (TCP), Remote Direct Memory Access over Converged Ethernet (RoCEv2), InfiniBand และ Fibre Channel เมื่อ CPU โฮสต์ถูกใช้อย่างหนักเพื่อเรียกใช้โปรโตคอลอุปกรณ์จัดเก็บข้อมูลเหล่านี้และบริการโครงสร้างพื้นฐานอื่นๆ จำนวนแกน CPU ที่พร้อมใช้งานสำหรับแอปพลิเคชันของผู้เช่าจะลดลงอย่างมาก ตัวอย่างเช่น CPU 16 คอร์อาจให้ประสิทธิภาพเท่ากับ CPU 10 คอร์เท่านั้น

ด้วยเหตุผลเหล่านี้และอื่นๆ อีกมากมาย สถาปัตยกรรมที่ใช้ซอฟต์แวร์เพียงอย่างเดียวจึงทำให้เกิดความท้าทายทางธุรกิจและทางเทคนิคที่สำคัญสำหรับการจัดเก็บข้อมูลในศูนย์ข้อมูล

โซลูชันการถ่ายโอนข้อมูลการจัดเก็บข้อมูลที่ใช้ IPU

การโอนเวิร์กโหลด NVMe/TCP ออกไปยัง IPU นอกเหนือจากบริการโครงสร้างพื้นฐานอื่นๆ เช่น ไฮเปอร์ไวเซอร์และ vSwitch (ดูรูปที่ 3) กล่าวถึงข้อจำกัดของการใช้งานซอฟต์แวร์เพียงอย่างเดียว และมอบผลประโยชน์ที่สำคัญให้แก่ผู้ปฏิบัติงานศูนย์ข้อมูล:

 

  • การใช้งาน CPU: การสื่อสาร NVMe/TCP เกี่ยวข้องกับการปกปิดคำสั่ง NVMe และข้อมูลภายในโปรโตคอลการขนส่ง TCP CPU โฮสต์ประมวลผลงานการปกปิดและการยกเลิกการปกปิดข้อมูลเหล่านี้โดยไม่ต้องถ่ายข้อมูลออก การโอนย้ายการดำเนินการเหล่านี้ไปยังฮาร์ดแวร์เฉพาะทำให้ CPU สามารถมุ่งเน้นไปที่งานที่สำคัญอื่นๆ ซึ่งช่วยปรับปรุงประสิทธิภาพโดยรวมของระบบและการใช้งาน CPU

  • เวลาแฝงที่ต่ำกว่า: การถ่ายโอนงานการสื่อสาร NVMe/TCP ไปยังฮาร์ดแวร์เฉพาะสามารถลดเวลาแฝงของคำสั่งการจัดเก็บข้อมูลในการประมวลผลได้อย่างมาก ด้วยเหตุนี้ แอปพลิเคชันจึงสามารถรับประสบการณ์การตอบสนองที่เร็วขึ้นและประสิทธิภาพที่ดีขึ้นเมื่อเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ระยะไกล

  • การเคลื่อนย้ายข้อมูลที่มีประสิทธิภาพ: การถ่ายโอนงานแอปพลิเคชันที่ไม่ใช่ CPU ไปยังตัวเร่งฮาร์ดแวร์แบบแยกส่วน ช่วยให้การดำเนินการเคลื่อนย้ายข้อมูลดำเนินการได้อย่างมีประสิทธิภาพมากกว่าการใช้ CPU เอนกประสงค์ สามารถจัดการการถ่ายโอนข้อมูลขนาดใหญ่และการจัดการบัฟเฟอร์ได้อย่างมีประสิทธิภาพ ลดเวลาแฝง และปรับปรุงปริมาณงานโดยรวม

  • ความสามารถในการปรับขนาดดีขึ้น: การถ่ายข้อมูลงาน NVMe/TCP ช่วยเพิ่มความสามารถในการปรับขนาดในการปรับใช้พื้นที่จัดเก็บข้อมูลขนาดใหญ่ การปลดเปลื้อง CPU จากการจัดการการสื่อสารบนเครือข่ายช่วยให้ระบบสามารถรองรับการเชื่อมต่อและอุปกรณ์จัดเก็บข้อมูลพร้อมกันได้มากขึ้นโดยไม่ต้องผูกติดอยู่กับ CPU

  • ประสิทธิภาพด้านการใช้พลังงาน: การลดภาระงานบางอย่างไปยังฮาร์ดแวร์เฉพาะ จะช่วยลดการใช้พลังงานบน CPU โฮสต์ ประสิทธิภาพการใช้พลังงานนี้อาจมีความสำคัญอย่างยิ่งในสภาพแวดล้อมศูนย์ข้อมูลขนาดใหญ่ซึ่งการพิจารณาการใช้พลังงานเป็นสิ่งสำคัญ

พื้นที่เก็บข้อมูลแบบแยกส่วน IPU
รูป 3 พื้นที่เก็บข้อมูลแบบแยกส่วนที่ใช้ IPU

 

นอกเหนือจากประโยชน์ข้างต้นที่มีผลกับเวิร์กโหลดพื้นที่จัดเก็บข้อมูล NVMe/TCP แล้ว สถาปัตยกรรมระบบที่ใช้ IPU ยังมอบตัวเลือกการแยกความปลอดภัยเพิ่มเติม โดยที่บริการโครงสร้างพื้นฐานจะถูกแยกออกจากแอปพลิเคชันของผู้เช่า ซึ่งทำให้แน่ใจได้ว่าบริการพื้นที่เก็บข้อมูล ไฮเปอร์ไวเซอร์ และบริการ vSwitch จะไม่ถูกโจมตีจากการโจมตีทางไซเบอร์ที่มาจากแอปพลิเคชันของผู้เช่า บริการโครงสร้างพื้นฐานได้รับการรักษาความปลอดภัยเนื่องจากกระบวนการบูตของ IPU นั้นปลอดภัย ในขณะที่ IPU จะทำหน้าที่เป็นรากฐานของความไว้วางใจสำหรับโฮสต์เซิร์ฟเวอร์

โซลูชันฮาร์ดแวร์บวกซอฟต์แวร์แบบผสมผสานของ Napatech

Napatech มอบโซลูชันระดับระบบแบบครบวงจรสำหรับการกำจัดพื้นที่จัดเก็บข้อมูลของศูนย์ข้อมูล ซึ่งประกอบด้วยชุดซอฟต์แวร์ Link-Storage ประสิทธิภาพสูงที่ทำงานบน F2070X IPU ดูรูปที่ 4

รูปที่ 4 การกำจัดพื้นที่เก็บข้อมูลของ Napatech ที่ทำงานบน F2070X IPU

 

ซอฟต์แวร์ Link-Storage ประกอบด้วยชุดฟังก์ชันที่หลากหลาย ซึ่งรวมถึง:

 

  • การถ่ายโอนเวิร์กโหลด NVMe/TCP จากโฮสต์ไปยัง IPU อย่างสมบูรณ์

  • การถ่ายโอนเวิร์กโหลด TCP จากโฮสต์ไปยัง IPU อย่างสมบูรณ์

  • NVMe ไปยังตัวเริ่มต้น TCP

  • การกำหนดค่าพื้นที่เก็บข้อมูลบนอินเทอร์เฟซ Storage Performance Development Kit Remote Procedure Call (SPDK RPC)

  • การรองรับ Multipath NVMe

  • การนำเสนออุปกรณ์บล็อก 16 รายการไปยังโฮสต์ผ่านอินเทอร์เฟซ virtio-blk

  • ความเข้ากันได้กับไดรเวอร์ virtio-blk มาตรฐานในการกระจาย Linux* ทั่วไป

  • การแยกความปลอดภัยระหว่าง CPU โฮสต์และ IPU โดยไม่มีอินเทอร์เฟซเครือข่ายเปิดเผยต่อโฮสต์

นอกเหนือจาก Link-Storage แล้ว F2070X ยังรองรับซอฟต์แวร์ Link-Virtualization ซึ่งมีส่วนงานข้อมูลที่ถูกถ่ายโอนและเร่งความเร็วแบบเสมือน รวมถึงฟังก์ชันต่างๆ เช่น Open vSwitch (OVS), การโยกย้ายแบบสด, การมิเรอร์ VM-to-VM, การปกปิดข้อมูล/การยกเลิกการปกปิดข้อมูล VLAN/VxLAN, Q-in-Q, การสร้างสมดุลโหลด Receive Side Scaling (RSS), การรวมลิงก์ และ Quality of Service (QoS)

เนื่องจาก F2070X ใช้ FPGA และ CPU แทนที่จะเป็น ASIC คุณจึงสามารถอัปเดตฟังก์ชันการทำงานทั้งหมดของแพลตฟอร์มได้หลังจากการปรับใช้ ไม่ว่าจะแก้ไขบริการที่มีอยู่ เพิ่มฟังก์ชันใหม่ หรือปรับแต่งพารามิเตอร์ประสิทธิภาพเฉพาะ การเขียนโปรแกรมใหม่นี้สามารถทำได้เป็นการอัปเกรดซอฟต์แวร์ภายในสภาพแวดล้อมเซิร์ฟเวอร์ที่มีอยู่เท่านั้น โดยไม่ต้องตัดการเชื่อมต่อ ถอด หรือเปลี่ยนฮาร์ดแวร์ใดๆ

Napatech F2070X IPU

Napatech F2070X IPU ซึ่งใช้แพลตฟอร์ม Intel® IPU F2000X-PL เป็นการ์ด PCIe 2x100G พร้อมด้วยเอฟพีจีเอ Intel Agilex® 7 F-Series และโปรเซสเซอร์ Intel® Xeon® D ใน Full Height, Half-Length (FHHL), ฟอร์มแฟคเตอร์แบบช่องคู่

การกำหนดค่ามาตรฐานของ F2070X IPU ประกอบด้วยเอฟพีจีเอ Intel Agilex® 7 AGF023 พร้อมหน่วยความจำ DDR4 ขนาด 4GB สี่ช่อง และโปรเซสเซอร์ Intel® Xeon® D-1736 ความเร็ว 2.3 GHz พร้อมหน่วยความจำ DDR4 ขนาด 8GB สองช่อง สามารถจัดส่งตัวเลือกการกำหนดค่าอื่นๆ เพื่อรองรับเวิร์กโหลดเฉพาะ

F2070X IPU เชื่อมต่อกับโฮสต์ผ่านอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) พร้อมด้วยอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) เพิ่มเติมระหว่าง FPGA และโปรเซสเซอร์

อินเทอร์เฟซเครือข่าย QSFP28/56 ที่แผงด้านหน้าสองช่องรองรับการกำหนดค่าเครือข่ายของ:

 

  • 2x 100G;
  • 8x 10G หรือ 8x 25G (ใช้สายเคเบิลแยก)

พอร์ต PTP RJ45 เฉพาะให้การซิงโครไนซ์เวลาเสริมกับคอนเนคเตอร์ SMA-F ภายนอกและตัวเชื่อมต่อ MCX-F ภายใน รองรับการประทับเวลา IEEE 1588v2

คอนเนคเตอร์อีเทอร์เน็ต RJ45 เฉพาะจัดหาการจัดการบอร์ด การอัปเดตอิมเมจ FPGA ที่ปลอดภัยช่วยให้เพิ่มฟังก์ชันใหม่หรืออัปเดตคุณสมบัติที่มีอยู่ได้หลังจากใช้งาน IPU แล้ว

โปรเซสเซอร์ใช้งาน Fedora Linux พร้อมด้วย UEFI BIOS, รองรับการบูต PXE, การเข้าถึงเชลล์แบบเต็มผ่าน SSH และ UART

อะแดปเตอร์ Intel IPU F2000X
อะแดปเตอร์ F2000X-PL แพลตฟอร์ม Intel® IPU