ภาพขนาดย่อ Napatech

IPU ลดค่าใช้จ่ายในการประมวลผลในเวิร์กโหลดการจัดเก็บข้อมูล

Napatech ผสานรวม F2070X IPU ที่ใช้ Intel® IPU เข้ากับซอฟต์แวร์ Link-Storage* เพื่อถ่ายโอน NVMe บนเวิร์กโหลด TCP ซึ่งช่วยลดค่าใช้จ่ายในการประมวลผล

สรุปข้อมูล

  • ศูนย์ข้อมูลระดับองค์กรและคลาวด์กำลังนำเทคโนโลยีการจัดเก็บข้อมูล NVMe/TCP มาใช้มากขึ้น เนื่องจากข้อได้เปรียบด้านประสิทธิภาพ เวลาแฝง ความสามารถในการปรับขนาด การจัดการ และการใช้ทรัพยากร อย่างไรก็ตาม การใช้ปริมาณงานตัวเริ่มต้นพื้นที่จัดเก็บข้อมูลที่จำเป็นบน CPU โฮสต์ของเซิร์ฟเวอร์จะทำให้เกิดค่าใช้จ่ายในการประมวลผลที่สำคัญ และจำกัดจำนวนคอร์ CPU ที่พร้อมใช้งานสำหรับการเรียกใช้บริการและแอปพลิเคชัน

  • โซลูชันฮาร์ดแวร์บวกซอฟต์แวร์แบบผสานรวมของ Napatech ซึ่งประกอบด้วยชุดซอฟต์แวร์ Link-Storage ที่ทำงานบน F2070X IPU แก้ไขปัญหานี้ด้วยการลดเวิร์กโหลดพื้นที่จัดเก็บข้อมูลจาก CPU โฮสต์ไปยัง IPU ในขณะที่ยังคงรักษาความเข้ากันได้ของซอฟต์แวร์เต็มรูปแบบในระดับแอปพลิเคชัน

  • โซลูชันการถ่ายโอนข้อมูลของอุปกรณ์จัดเก็บข้อมูลของ Napatech ช่วยเพิ่มพื้นที่คอร์ CPU โฮสต์ ซึ่งฟังก์ชันการจัดเก็บข้อมูลจะไม่ได้ใช้ถ้าไม่ได้เพิ่มพื้นที่ ทำงานได้ดีกว่าการใช้งานซอฟต์แวร์อย่างมีนัยสำคัญ ซึ่งช่วยลด CAPEX ของศูนย์ข้อมูล, OPEX และการใช้พลังงาน นอกจากนี้ยังแนะนำการแยกการรักษาความปลอดภัยเข้าสู่ระบบ ซึ่งเพิ่มการป้องกันการโจมตีทางไซเบอร์

author-image

โดย

โลโก้ NVM Expressบทสรุปโซลูชันนี้อธิบายวิธีที่โซลูชันฮาร์ดแวร์และซอฟต์แวร์แบบรวมของ Napatech ลดโหลดเวิร์คโหลดการจัดเก็บข้อมูล NVMe/TCP จาก CPU โฮสต์ไปยัง IPU ซึ่งช่วยลด CAPEX, OPEX และการใช้พลังงานได้อย่างมาก นอกจากนี้ยังแนะนำการแยกการรักษาความปลอดภัยเข้าสู่ระบบ ซึ่งเพิ่มการป้องกันการโจมตีทางไซเบอร์

NVMe Over TCP คืออะไร

NVMe/TCP เป็นเทคโนโลยีการจัดเก็บข้อมูลที่ช่วยให้สามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล Non-Volatile Memory Express (NVMe) ผ่านเครือข่ายโดยใช้แฟบริคศูนย์ข้อมูลมาตรฐาน ดูรูปที่ 1

ศูนย์ข้อมูลคลาวด์และองค์กรสมัยใหม่กำลังนำ NVME/TCP มาใช้มากขึ้น เนื่องจากมีข้อได้เปรียบที่น่าสนใจ ซึ่งมีให้มากกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเก่า เช่น Internet Small Computer System Interface (iSCSI) Fibre Channel:

รูป 1 สถาปัตยกรรมการจัดเก็บข้อมูลแบบแยกส่วน

  • ประสิทธิภาพสูงขึ้น: NVMe ได้รับการออกแบบมาเพื่อใช้ประโยชน์อย่างเต็มที่จากโซลิดสเตทไดรฟ์ (SSD) ที่ใช้ NAND ความเร็วสูงที่ทันสมัย และให้อัตราการถ่ายโอนข้อมูลที่เร็วกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเดิมอย่างมาก NVMe/TCP ขยายคุณประโยชน์เหล่านี้ไปยังสภาพแวดล้อมการจัดเก็บข้อมูลแบบเครือข่าย จึงช่วยให้ศูนย์ข้อมูลสามารถเข้าถึงการจัดเก็บข้อมูลประสิทธิภาพสูงบนแฟบริค

  • เวลาแฝงที่ลดลง: ลักษณะเวลาแฝงต่ำของ NVMe/TCP สำคัญยิ่งต่อแอปพลิเคชันที่ต้องใช้เดต้าจำนวนมากและเวิร์กโหลดแบบเรียลไทม์ NVMe/TCP สามารถช่วยลดเวลาแฝงในการเข้าถึงพื้นที่จัดเก็บข้อมูลและปรับปรุงประสิทธิภาพโดยรวมของแอปพลิเคชัน โดยการลดค่าใช้จ่ายในการสื่อสารและกำจัดความจำเป็นในการแปลงโปรโตคอล

  • ความสามารถในการปรับขนาด: ศูนย์ข้อมูลมักจัดการกับการปรับใช้พื้นที่จัดเก็บข้อมูลขนาดใหญ่ และ NVMe/TCP ช่วยให้สามารถปรับขนาดได้อย่างราบรื่นโดยมอบโซลูชันการเข้าถึงพื้นที่จัดเก็บข้อมูลที่ยืดหยุ่นและมีประสิทธิภาพผ่านเครือข่าย เมื่อจำนวนอุปกรณ์ NVMe เพิ่มมากขึ้น ศูนย์ข้อมูลสามารถรักษาระดับประสิทธิภาพสูงได้โดยไม่มีปัญหาคอขวดอย่างมีนัยสำคัญ

  • พูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน: NVMe/TCP ช่วยให้สามารถสร้างพูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน ซึ่งสามารถเข้าถึงได้โดยเซิร์ฟเวอร์และแอปพลิเคชันหลายเครื่องพร้อมกัน สถาปัตยกรรมพื้นที่จัดเก็บข้อมูลที่ใช้ร่วมกันนี้ปรับปรุงการใช้ทรัพยากรและลดความยุ่งยากในการจัดการพื้นที่เก็บข้อมูล ซึ่งช่วยประหยัดต้นทุนได้อย่างมาก

  • ความเข้ากันได้ของโครงสร้างพื้นฐานแบบเดิม: ศูนย์ข้อมูลมักจะมีโครงสร้างพื้นฐานที่มีอยู่ซึ่งสร้างขึ้นบนเครือข่าย Ethernet, InfiniBand หรือ Fibre Channel NVMe/TCP ช่วยให้พวกเขาสามารถใช้ประโยชน์จากการลงทุนแฟบริคในปัจจุบัน ในขณะที่ผสานรวมเทคโนโลยีการจัดเก็บข้อมูลที่ใช้ NVMe ที่ใหม่กว่า โดยไม่ต้องยกเครื่องโครงสร้างพื้นฐานเครือข่ายทั้งหมด

  • การใช้ทรัพยากรอย่างมีประสิทธิภาพ: NVMe/TCP ช่วยให้ใช้ทรัพยากรได้ดีขึ้นโดยลดความจําเป็นในการใช้ทรัพยากรการจัดเก็บข้อมูลโดยเฉพาะในแต่ละเซิร์ฟเวอร์ เซิร์ฟเวอร์หลายตัวสามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ที่ใช้ร่วมกันผ่านเครือข่าย ซึ่งช่วยเพิ่มประสิทธิภาพการใช้ทรัพยากรพื้นที่จัดเก็บ NVMe ที่มีราคาแพง

  • การรองรับอนาคต: เมื่อศูนย์ข้อมูลพัฒนาและปรับใช้เทคโนโลยีการจัดเก็บข้อมูลที่เร็วขึ้น NVMe/TCP จึงให้วิธีการเชิงคาดการณ์ล่วงหน้าในการเข้าถึงอุปกรณ์จัดเก็บข้อมูล ทําให้มั่นใจได้ว่าเครือข่ายการจัดเก็บข้อมูลจะสามารถตอบสนองความต้องการที่เพิ่มขึ้นของแอปพลิเคชันและเวิร์คโหลดสมัยใหม่

โดยรวมแล้ว NVMe/TCP นำเสนอโซลูชันการจัดเก็บข้อมูลที่ทรงพลังและยืดหยุ่นสำหรับศูนย์ข้อมูล ทำให้มีประสิทธิภาพสูง เวลาแฝงต่ำ และการใช้ทรัพยากรอย่างมีประสิทธิภาพในสภาพแวดล้อมการจัดเก็บข้อมูลที่ใช้ร่วมกันและปรับขนาดได้

ข้อจำกัดของสถาปัตยกรรมการจัดเก็บข้อมูลเฉพาะซอฟต์แวร์

แม้จะมีประโยชน์ที่น่าสนใจของ NVMe/TCP สําหรับอุปกรณ์จัดเก็บข้อมูล แต่ผู้ให้บริการศูนย์ข้อมูลต้องตระหนักถึงข้อจํากัดที่สําคัญที่เกี่ยวข้องกับการใช้งานซึ่งบริการตัวเริ่มต้นการจัดเก็บข้อมูลที่จําเป็นทั้งหมดทํางานในซอฟต์แวร์บน CPU เซิร์ฟเวอร์โฮสต์ ดูรูปที่ 2

อุปกรณ์จัดเก็บข้อมูลเครือข่าย
รูปที่ 2 อุปกรณ์จัดเก็บข้อมูลเครือข่ายที่ใช้ซอฟต์แวร์

ประการแรก ความเสี่ยงด้านความปลอดภัยระดับระบบจะปรากฏขึ้น หากซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ หรือสวิตช์เสมือน (vSwitch) ถูกโจมตีจากการโจมตีทางไซเบอร์

ประการที่สอง ไม่มีวิธีใดที่จะรับประกันการแยกส่วนระหว่างเวิร์กโหลดของผู้เช่าโดยสมบูรณ์ สถาปัตยกรรมเดียวโฮสต์แอปพลิเคชันและข้อมูลของลูกค้าหลายรายในสภาพแวดล้อมที่มีผู้เช่าหลายราย เอฟเฟกต์ “เพื่อนบ้านเสียงดัง” เกิดขึ้นเมื่อแอปพลิเคชันหรือเครื่องเสมือน (VM) ใช้ทรัพยากรที่มีอยู่มากที่สุดและลดประสิทธิภาพของระบบสำหรับผู้เช่ารายอื่นบนโครงสร้างพื้นฐานที่ใช้ร่วมกัน

สุดท้ายนี้ คอร์ประมวลผล CPU ของโฮสต์ส่วนใหญ่จำเป็นสำหรับการเรียกใช้บริการโครงสร้างพื้นฐาน เช่น ซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ และ vSwitch ซึ่งช่วยลดจำนวนคอร์ CPU ที่สามารถสร้างรายได้สำหรับ VM, คอนเทนเนอร์ และแอปพลิเคชัน รายงานระบุว่าโดยทั่วไปแล้วทรัพยากร CPU ของศูนย์ข้อมูลระหว่าง 30% ถึง 50% ถูกใช้โดยบริการโครงสร้างพื้นฐาน

ในระบบย่อยหน่วยเก็บข้อมูลประสิทธิภาพสูง อาจจำเป็นต้องมี CPU โฮสต์เพื่อเรียกใช้หลายโปรโตคอล เช่น Transmission Control Protocol (TCP), Remote Direct Memory Access over Converged Ethernet (RoCEv2), InfiniBand และ Fibre Channel เมื่อ CPU โฮสต์ถูกใช้อย่างหนักเพื่อเรียกใช้โปรโตคอลอุปกรณ์จัดเก็บข้อมูลเหล่านี้และบริการโครงสร้างพื้นฐานอื่นๆ จำนวนแกน CPU ที่พร้อมใช้งานสำหรับแอปพลิเคชันของผู้เช่าจะลดลงอย่างมาก ตัวอย่างเช่น CPU 16 คอร์อาจให้ประสิทธิภาพเท่ากับ CPU 10 คอร์เท่านั้น

ด้วยเหตุผลเหล่านี้และอื่นๆ อีกมากมาย สถาปัตยกรรมที่ใช้ซอฟต์แวร์เพียงอย่างเดียวจึงทำให้เกิดความท้าทายทางธุรกิจและทางเทคนิคที่สำคัญสำหรับการจัดเก็บข้อมูลในศูนย์ข้อมูล

โซลูชันการถ่ายโอนข้อมูลการจัดเก็บข้อมูลที่ใช้ IPU

การโอนเวิร์กโหลด NVMe/TCP ออกไปยัง IPU นอกเหนือจากบริการโครงสร้างพื้นฐานอื่นๆ เช่น ไฮเปอร์ไวเซอร์และ vSwitch (ดูรูปที่ 3) กล่าวถึงข้อจำกัดของการใช้งานซอฟต์แวร์เพียงอย่างเดียว และมอบผลประโยชน์ที่สำคัญให้แก่ผู้ปฏิบัติงานศูนย์ข้อมูล:

  • การใช้งาน CPU: การสื่อสาร NVMe/TCP เกี่ยวข้องกับการปกปิดคำสั่ง NVMe และข้อมูลภายในโปรโตคอลการขนส่ง TCP CPU โฮสต์ประมวลผลงานการปกปิดและการยกเลิกการปกปิดข้อมูลเหล่านี้โดยไม่ต้องถ่ายข้อมูลออก การโอนย้ายการดำเนินการเหล่านี้ไปยังฮาร์ดแวร์เฉพาะทำให้ CPU สามารถมุ่งเน้นไปที่งานที่สำคัญอื่นๆ ซึ่งช่วยปรับปรุงประสิทธิภาพโดยรวมของระบบและการใช้งาน CPU

  • เวลาแฝงที่ต่ำกว่า: การถ่ายโอนงานการสื่อสาร NVMe/TCP ไปยังฮาร์ดแวร์เฉพาะสามารถลดเวลาแฝงของคำสั่งการจัดเก็บข้อมูลในการประมวลผลได้อย่างมาก ด้วยเหตุนี้ แอปพลิเคชันจึงสามารถรับประสบการณ์การตอบสนองที่เร็วขึ้นและประสิทธิภาพที่ดีขึ้นเมื่อเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ระยะไกล

  • การเคลื่อนย้ายข้อมูลที่มีประสิทธิภาพ: การถ่ายโอนงานแอปพลิเคชันที่ไม่ใช่ CPU ไปยังตัวเร่งฮาร์ดแวร์แบบแยกส่วน ช่วยให้การดำเนินการเคลื่อนย้ายข้อมูลดำเนินการได้อย่างมีประสิทธิภาพมากกว่าการใช้ CPU เอนกประสงค์ สามารถจัดการการถ่ายโอนข้อมูลขนาดใหญ่และการจัดการบัฟเฟอร์ได้อย่างมีประสิทธิภาพ ลดเวลาแฝง และปรับปรุงปริมาณงานโดยรวม

  • ความสามารถในการปรับขนาดที่ดีขึ้น: การออฟโหลดงาน NVMe/TCP ปรับปรุงความสามารถในการปรับขนาดในการปรับใช้อุปกรณ์จัดเก็บข้อมูลขนาดใหญ่ การปลดเปลื้อง CPU จากการจัดการการสื่อสารบนเครือข่ายช่วยให้ระบบสามารถรองรับการเชื่อมต่อและอุปกรณ์จัดเก็บข้อมูลพร้อมกันได้มากขึ้นโดยไม่ต้องผูกติดอยู่กับ CPU

  • ประสิทธิภาพการใช้พลังงาน: การถ่ายข้อมูลงานบางอย่างไปยังฮาร์ดแวร์ที่เจาะจง จะลดการใช้พลังงานบน CPU แม่ข่ายได้ ประสิทธิภาพการใช้พลังงานนี้อาจมีความสำคัญอย่างยิ่งในสภาพแวดล้อมศูนย์ข้อมูลขนาดใหญ่ซึ่งการพิจารณาการใช้พลังงานเป็นสิ่งสำคัญ

พื้นที่เก็บข้อมูลแบบแยกส่วน IPU
รูป 3 อุปกรณ์จัดเก็บข้อมูลแบบแยกส่วนที่เปิดใช้งาน IPU

นอกเหนือจากประโยชน์ข้างต้นที่มีผลกับเวิร์กโหลดพื้นที่จัดเก็บข้อมูล NVMe/TCP แล้ว สถาปัตยกรรมระบบที่ใช้ IPU ยังมอบตัวเลือกการแยกความปลอดภัยเพิ่มเติม โดยที่บริการโครงสร้างพื้นฐานจะถูกแยกออกจากแอปพลิเคชันของผู้เช่า ซึ่งทำให้แน่ใจได้ว่าบริการพื้นที่เก็บข้อมูล ไฮเปอร์ไวเซอร์ และบริการ vSwitch จะไม่ถูกโจมตีจากการโจมตีทางไซเบอร์ที่มาจากแอปพลิเคชันของผู้เช่า บริการโครงสร้างพื้นฐานได้รับการรักษาความปลอดภัยเนื่องจากกระบวนการบูตของ IPU นั้นปลอดภัย ในขณะที่ IPU จะทำหน้าที่เป็นรากฐานของความไว้วางใจสำหรับโฮสต์เซิร์ฟเวอร์

โซลูชันฮาร์ดแวร์บวกซอฟต์แวร์แบบผสมผสานของ Napatech

Napatech มอบโซลูชันระดับระบบแบบครบวงจรสำหรับการกำจัดพื้นที่จัดเก็บข้อมูลของศูนย์ข้อมูล ซึ่งประกอบด้วยชุดซอฟต์แวร์ Link-Storage ประสิทธิภาพสูงที่ทำงานบน F2070X IPU ดูรูปที่ 4

รูปที่ 4 การกำจัดพื้นที่เก็บข้อมูลของ Napatech ที่ทำงานบน F2070X IPU

ซอฟต์แวร์ Link-Storage ประกอบด้วยชุดฟังก์ชันที่หลากหลาย ซึ่งรวมถึง:

  • การถ่ายโอนเวิร์กโหลด NVMe/TCP จากโฮสต์ไปยัง IPU อย่างสมบูรณ์

  • การถ่ายข้อมูลเวิร์กโหลด TCP ทั้งหมดจากโฮสต์ไปยัง IPU

  • NVMe ไปยังตัวเริ่มต้น TCP

  • การกําหนดค่าอุปกรณ์จัดเก็บข้อมูลบนอินเทอร์เฟซ Storage Performance Development Kit Remote Procedure Call (SPDK RPC)

  • การรองรับ Multipath NVMe

  • การนําเสนออุปกรณ์บล็อก 16 ตัวไปยังโฮสต์ผ่าน อินเทอร์เฟซvirtio-blk

  • ความเข้ากันได้กับ ไดรเวอร์ virtio-blk ในการกระจาย Linux* ทั่วไป

  • การแยกความปลอดภัยระหว่าง CPU โฮสต์และ IPU โดยไม่มีอินเทอร์เฟซเครือข่ายเปิดเผยต่อโฮสต์

นอกเหนือจาก Link-Storage แล้ว F2070X ยังรองรับซอฟต์แวร์ Link-Virtualization ซึ่งมีส่วนงานข้อมูลที่ถูกถ่ายโอนและเร่งความเร็วแบบเสมือน รวมถึงฟังก์ชันต่างๆ เช่น Open vSwitch (OVS), การโยกย้ายแบบสด, การมิเรอร์ VM-to-VM, การปกปิดข้อมูล/การยกเลิกการปกปิดข้อมูล VLAN/VxLAN, Q-in-Q, การสร้างสมดุลโหลด Receive Side Scaling (RSS), การรวมลิงก์ และ Quality of Service (QoS)

เนื่องจาก F2070X ใช้ FPGA และ CPU แทนที่จะเป็น ASIC คุณจึงสามารถอัปเดตฟังก์ชันการทำงานทั้งหมดของแพลตฟอร์มได้หลังจากการปรับใช้ ไม่ว่าจะแก้ไขบริการที่มีอยู่ เพิ่มฟังก์ชันใหม่ หรือปรับแต่งพารามิเตอร์ประสิทธิภาพเฉพาะ การเขียนโปรแกรมใหม่นี้สามารถทำได้เป็นการอัปเกรดซอฟต์แวร์ภายในสภาพแวดล้อมเซิร์ฟเวอร์ที่มีอยู่เท่านั้น โดยไม่ต้องตัดการเชื่อมต่อ ถอด หรือเปลี่ยนฮาร์ดแวร์ใดๆ

Napatech F2070X IPU

Napatech F2070X IPU ซึ่งใช้แพลตฟอร์ม Intel® IPU F2000X-PL เป็นการ์ด PCIe 2x100G พร้อมด้วยเอฟพีจีเอ Intel Agilex® 7 F-Series และโปรเซสเซอร์ Intel® Xeon® D ใน Full Height, Half-Length (FHHL), ฟอร์มแฟคเตอร์แบบช่องคู่

การกำหนดค่ามาตรฐานของ F2070X IPU ประกอบด้วยเอฟพีจีเอ Intel Agilex® 7 AGF023 พร้อมหน่วยความจำ DDR4 ขนาด 4GB สี่ช่อง และโปรเซสเซอร์ Intel® Xeon® D-1736 ความเร็ว 2.3 GHz พร้อมหน่วยความจำ DDR4 ขนาด 8GB สองช่อง สามารถจัดส่งตัวเลือกการกำหนดค่าอื่นๆ เพื่อรองรับเวิร์กโหลดเฉพาะ

F2070X IPU เชื่อมต่อกับโฮสต์ผ่านอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) พร้อมอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) เพิ่มเติมระหว่าง FPGA และโปรเซสเซอร์

อินเทอร์เฟซเครือข่าย QSFP28/56 ที่แผงด้านหน้าสองช่องรองรับการกำหนดค่าเครือข่ายของ:

  • 2x 100G;
  • 8x 10G หรือ 8x 25G (ใช้สายเคเบิลแยก)

พอร์ต PTP RJ45 เฉพาะให้การซิงโครไนซ์เวลาเสริมกับคอนเนคเตอร์ SMA-F ภายนอกและตัวเชื่อมต่อ MCX-F ภายใน รองรับการประทับเวลา IEEE 1588v2

คอนเนคเตอร์อีเทอร์เน็ต RJ45 เฉพาะจัดหาการจัดการบอร์ด การอัปเดตรูปภาพ FPGA ที่ปลอดภัยช่วยให้สามารถเพิ่มฟังก์ชันใหม่หรือฟีเจอร์ที่มีอยู่เพื่ออัปเดตหลังจาก IPU ถูกปรับใช้แล้ว

โปรเซสเซอร์ใช้งาน Fedora Linux พร้อมด้วย UEFI BIOS, รองรับการบูต PXE, การเข้าถึงเชลล์แบบเต็มผ่าน SSH และ UART

อะแดปเตอร์ Intel IPU F2000X
อะแดปเตอร์ F2000X-PL แพลตฟอร์ม Intel® IPU