บทสรุปโซลูชันนี้อธิบายว่าโซลูชันฮาร์ดแวร์บวกซอฟต์แวร์ที่ผสานรวมของ Napatech ถ่ายเวิร์กโหลดอุปกรณ์จัดเก็บข้อมูล NVMe/TCP จาก CPU โฮสต์ไปยัง IPU ได้อย่างไร ซึ่งช่วยลด CAPEX, OPEX และการใช้พลังงานลงอย่างมาก นอกจากนี้ยังแนะนำการแยกการรักษาความปลอดภัยเข้าสู่ระบบ ซึ่งเพิ่มการป้องกันการโจมตีทางไซเบอร์
NVMe Over TCP คืออะไร
NVMe/TCP เป็นเทคโนโลยีการจัดเก็บข้อมูลที่ช่วยให้สามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล Non-Volatile Memory Express (NVMe) ผ่านเครือข่ายโดยใช้แฟบริคศูนย์ข้อมูลมาตรฐาน ดูรูป 1
ศูนย์ข้อมูลคลาวด์และองค์กรสมัยใหม่กำลังนำ NVME/TCP มาใช้มากขึ้น เนื่องจากมีข้อได้เปรียบที่น่าสนใจ ซึ่งมีให้มากกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเก่า เช่น Internet Small Computer System Interface (iSCSI) Fibre Channel:
-
ประสิทธิภาพสูงขึ้น: NVMe ได้รับการออกแบบมาเพื่อใช้ประโยชน์อย่างเต็มที่จากโซลิดสเตทไดรฟ์ (SSD) ที่ใช้ NAND ความเร็วสูงที่ทันสมัย และให้อัตราการถ่ายโอนข้อมูลที่เร็วกว่าโปรโตคอลการจัดเก็บข้อมูลแบบเดิมอย่างมาก NVMe/TCP ขยายคุณประโยชน์เหล่านี้ไปยังสภาพแวดล้อมการจัดเก็บข้อมูลแบบเครือข่าย จึงช่วยให้ศูนย์ข้อมูลสามารถเข้าถึงการจัดเก็บข้อมูลประสิทธิภาพสูงบนแฟบริค
-
เวลาแฝงที่ลดลง: ลักษณะเวลาแฝงต่ำของ NVMe/TCP สำคัญยิ่งต่อแอปพลิเคชันที่ต้องใช้เดต้าจำนวนมากและเวิร์กโหลดแบบเรียลไทม์ NVMe/TCP สามารถช่วยลดเวลาแฝงในการเข้าถึงพื้นที่จัดเก็บข้อมูลและปรับปรุงประสิทธิภาพโดยรวมของแอปพลิเคชัน โดยการลดค่าใช้จ่ายในการสื่อสารและกำจัดความจำเป็นในการแปลงโปรโตคอล
-
ความสามารถในการปรับขนาด: ศูนย์ข้อมูลมักจัดการกับการปรับใช้พื้นที่จัดเก็บข้อมูลขนาดใหญ่ และ NVMe/TCP ช่วยให้สามารถปรับขนาดได้อย่างราบรื่นโดยมอบโซลูชันการเข้าถึงพื้นที่จัดเก็บข้อมูลที่ยืดหยุ่นและมีประสิทธิภาพผ่านเครือข่าย เมื่อจำนวนอุปกรณ์ NVMe เพิ่มมากขึ้น ศูนย์ข้อมูลสามารถรักษาระดับประสิทธิภาพสูงได้โดยไม่มีปัญหาคอขวดอย่างมีนัยสำคัญ
-
พูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน: NVMe/TCP ช่วยให้สามารถสร้างพูลอุปกรณ์จัดเก็บข้อมูลที่ใช้ร่วมกัน ซึ่งสามารถเข้าถึงได้โดยเซิร์ฟเวอร์และแอปพลิเคชันหลายเครื่องพร้อมกัน สถาปัตยกรรมพื้นที่จัดเก็บข้อมูลที่ใช้ร่วมกันนี้ปรับปรุงการใช้ทรัพยากรและลดความยุ่งยากในการจัดการพื้นที่เก็บข้อมูล ซึ่งช่วยประหยัดต้นทุนได้อย่างมาก
-
ความเข้ากันได้ของโครงสร้างพื้นฐานแบบเดิม: ศูนย์ข้อมูลมักจะมีโครงสร้างพื้นฐานที่มีอยู่ซึ่งสร้างขึ้นบนเครือข่าย Ethernet, InfiniBand หรือ Fibre Channel NVMe/TCP ช่วยให้พวกเขาสามารถใช้ประโยชน์จากการลงทุนแฟบริคในปัจจุบัน ในขณะที่ผสานรวมเทคโนโลยีการจัดเก็บข้อมูลที่ใช้ NVMe ที่ใหม่กว่า โดยไม่ต้องยกเครื่องโครงสร้างพื้นฐานเครือข่ายทั้งหมด
-
การใช้ทรัพยากรอย่างมีประสิทธิภาพ: NVMe/TCP ช่วยให้สามารถใช้ทรัพยากรได้ดีขึ้น โดยลดความจำเป็นในการใช้ทรัพยากรพื้นที่จัดเก็บข้อมูลเฉพาะในแต่ละเซิร์ฟเวอร์ เซิร์ฟเวอร์หลายตัวสามารถเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ที่ใช้ร่วมกันผ่านเครือข่าย ซึ่งช่วยเพิ่มประสิทธิภาพการใช้ทรัพยากรพื้นที่จัดเก็บ NVMe ที่มีราคาแพง
-
ล้ำสมัย: ในขณะที่ศูนย์ข้อมูลพัฒนาและนำเทคโนโลยีการจัดเก็บข้อมูลที่รวดเร็วขึ้นมาใช้ NVMe/TCP มอบแนวทางการเข้าถึงพื้นที่เก็บข้อมูลที่คาดการณ์เหตุการณ์ในอนาคตล่วงหน้า เพื่อให้มั่นใจว่าเครือข่ายการจัดเก็บข้อมูลทันกับความต้องการที่เพิ่มขึ้นของแอปพลิเคชันและเวิร์กโหลดสมัยใหม่
โดยรวมแล้ว NVMe/TCP นำเสนอโซลูชันการจัดเก็บข้อมูลที่ทรงพลังและยืดหยุ่นสำหรับศูนย์ข้อมูล ทำให้มีประสิทธิภาพสูง เวลาแฝงต่ำ และการใช้ทรัพยากรอย่างมีประสิทธิภาพในสภาพแวดล้อมการจัดเก็บข้อมูลที่ใช้ร่วมกันและปรับขนาดได้
ข้อจำกัดของสถาปัตยกรรมการจัดเก็บข้อมูลเฉพาะซอฟต์แวร์
แม้จะมีประโยชน์ที่น่าสนใจของ NVMe/TCP สำหรับการจัดเก็บข้อมูล แต่ผู้ปฏิบัติงานศูนย์ข้อมูลจะต้องตระหนักถึงข้อจำกัดหลักๆ เกี่ยวกับการใช้งาน ซึ่งบริการตัวเริ่มต้นการจัดเก็บข้อมูลที่จำเป็นทั้งหมดทำงานในซอฟต์แวร์บน CPU เซิร์ฟเวอร์ของโฮสต์ ดูรูปที่ 2
ประการแรก ความเสี่ยงด้านความปลอดภัยระดับระบบจะปรากฏขึ้น หากซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ หรือสวิตช์เสมือน (vSwitch) ถูกโจมตีจากการโจมตีทางไซเบอร์
ประการที่สอง ไม่มีวิธีใดที่จะรับประกันการแยกส่วนระหว่างเวิร์กโหลดของผู้เช่าโดยสมบูรณ์ สถาปัตยกรรมเดียวโฮสต์แอปพลิเคชันและข้อมูลของลูกค้าหลายรายในสภาพแวดล้อมที่มีผู้เช่าหลายราย เอฟเฟกต์ “เพื่อนบ้านเสียงดัง” เกิดขึ้นเมื่อแอปพลิเคชันหรือเครื่องเสมือน (VM) ใช้ทรัพยากรที่มีอยู่มากที่สุดและลดประสิทธิภาพของระบบสำหรับผู้เช่ารายอื่นบนโครงสร้างพื้นฐานที่ใช้ร่วมกัน
สุดท้ายนี้ คอร์ประมวลผล CPU ของโฮสต์ส่วนใหญ่จำเป็นสำหรับการเรียกใช้บริการโครงสร้างพื้นฐาน เช่น ซอฟต์แวร์การจำลองเสมือนการจัดเก็บข้อมูล ไฮเปอร์ไวเซอร์ และ vSwitch ซึ่งช่วยลดจำนวนคอร์ CPU ที่สามารถสร้างรายได้สำหรับ VM, คอนเทนเนอร์ และแอปพลิเคชัน รายงานระบุว่าโดยทั่วไปแล้วทรัพยากร CPU ของศูนย์ข้อมูลระหว่าง 30% ถึง 50% ถูกใช้โดยบริการโครงสร้างพื้นฐาน
ในระบบย่อยหน่วยเก็บข้อมูลประสิทธิภาพสูง อาจจำเป็นต้องมี CPU โฮสต์เพื่อเรียกใช้หลายโปรโตคอล เช่น Transmission Control Protocol (TCP), Remote Direct Memory Access over Converged Ethernet (RoCEv2), InfiniBand และ Fibre Channel เมื่อ CPU โฮสต์ถูกใช้อย่างหนักเพื่อเรียกใช้โปรโตคอลอุปกรณ์จัดเก็บข้อมูลเหล่านี้และบริการโครงสร้างพื้นฐานอื่นๆ จำนวนแกน CPU ที่พร้อมใช้งานสำหรับแอปพลิเคชันของผู้เช่าจะลดลงอย่างมาก ตัวอย่างเช่น CPU 16 คอร์อาจให้ประสิทธิภาพเท่ากับ CPU 10 คอร์เท่านั้น
ด้วยเหตุผลเหล่านี้และอื่นๆ อีกมากมาย สถาปัตยกรรมที่ใช้ซอฟต์แวร์เพียงอย่างเดียวจึงทำให้เกิดความท้าทายทางธุรกิจและทางเทคนิคที่สำคัญสำหรับการจัดเก็บข้อมูลในศูนย์ข้อมูล
โซลูชันการถ่ายโอนข้อมูลการจัดเก็บข้อมูลที่ใช้ IPU
การโอนเวิร์กโหลด NVMe/TCP ออกไปยัง IPU นอกเหนือจากบริการโครงสร้างพื้นฐานอื่นๆ เช่น ไฮเปอร์ไวเซอร์และ vSwitch (ดูรูปที่ 3) กล่าวถึงข้อจำกัดของการใช้งานซอฟต์แวร์เพียงอย่างเดียว และมอบผลประโยชน์ที่สำคัญให้แก่ผู้ปฏิบัติงานศูนย์ข้อมูล:
-
การใช้งาน CPU: การสื่อสาร NVMe/TCP เกี่ยวข้องกับการปกปิดคำสั่ง NVMe และข้อมูลภายในโปรโตคอลการขนส่ง TCP CPU โฮสต์ประมวลผลงานการปกปิดและการยกเลิกการปกปิดข้อมูลเหล่านี้โดยไม่ต้องถ่ายข้อมูลออก การโอนย้ายการดำเนินการเหล่านี้ไปยังฮาร์ดแวร์เฉพาะทำให้ CPU สามารถมุ่งเน้นไปที่งานที่สำคัญอื่นๆ ซึ่งช่วยปรับปรุงประสิทธิภาพโดยรวมของระบบและการใช้งาน CPU
-
เวลาแฝงที่ต่ำกว่า: การถ่ายโอนงานการสื่อสาร NVMe/TCP ไปยังฮาร์ดแวร์เฉพาะสามารถลดเวลาแฝงของคำสั่งการจัดเก็บข้อมูลในการประมวลผลได้อย่างมาก ด้วยเหตุนี้ แอปพลิเคชันจึงสามารถรับประสบการณ์การตอบสนองที่เร็วขึ้นและประสิทธิภาพที่ดีขึ้นเมื่อเข้าถึงอุปกรณ์จัดเก็บข้อมูล NVMe ระยะไกล
-
การเคลื่อนย้ายข้อมูลที่มีประสิทธิภาพ: การถ่ายโอนงานแอปพลิเคชันที่ไม่ใช่ CPU ไปยังตัวเร่งฮาร์ดแวร์แบบแยกส่วน ช่วยให้การดำเนินการเคลื่อนย้ายข้อมูลดำเนินการได้อย่างมีประสิทธิภาพมากกว่าการใช้ CPU เอนกประสงค์ สามารถจัดการการถ่ายโอนข้อมูลขนาดใหญ่และการจัดการบัฟเฟอร์ได้อย่างมีประสิทธิภาพ ลดเวลาแฝง และปรับปรุงปริมาณงานโดยรวม
-
ความสามารถในการปรับขนาดดีขึ้น: การถ่ายข้อมูลงาน NVMe/TCP ช่วยเพิ่มความสามารถในการปรับขนาดในการปรับใช้พื้นที่จัดเก็บข้อมูลขนาดใหญ่ การปลดเปลื้อง CPU จากการจัดการการสื่อสารบนเครือข่ายช่วยให้ระบบสามารถรองรับการเชื่อมต่อและอุปกรณ์จัดเก็บข้อมูลพร้อมกันได้มากขึ้นโดยไม่ต้องผูกติดอยู่กับ CPU
-
ประสิทธิภาพด้านการใช้พลังงาน: การลดภาระงานบางอย่างไปยังฮาร์ดแวร์เฉพาะ จะช่วยลดการใช้พลังงานบน CPU โฮสต์ ประสิทธิภาพการใช้พลังงานนี้อาจมีความสำคัญอย่างยิ่งในสภาพแวดล้อมศูนย์ข้อมูลขนาดใหญ่ซึ่งการพิจารณาการใช้พลังงานเป็นสิ่งสำคัญ
นอกเหนือจากประโยชน์ข้างต้นที่มีผลกับเวิร์กโหลดพื้นที่จัดเก็บข้อมูล NVMe/TCP แล้ว สถาปัตยกรรมระบบที่ใช้ IPU ยังมอบตัวเลือกการแยกความปลอดภัยเพิ่มเติม โดยที่บริการโครงสร้างพื้นฐานจะถูกแยกออกจากแอปพลิเคชันของผู้เช่า ซึ่งทำให้แน่ใจได้ว่าบริการพื้นที่เก็บข้อมูล ไฮเปอร์ไวเซอร์ และบริการ vSwitch จะไม่ถูกโจมตีจากการโจมตีทางไซเบอร์ที่มาจากแอปพลิเคชันของผู้เช่า บริการโครงสร้างพื้นฐานได้รับการรักษาความปลอดภัยเนื่องจากกระบวนการบูตของ IPU นั้นปลอดภัย ในขณะที่ IPU จะทำหน้าที่เป็นรากฐานของความไว้วางใจสำหรับโฮสต์เซิร์ฟเวอร์
โซลูชันฮาร์ดแวร์บวกซอฟต์แวร์แบบผสมผสานของ Napatech
Napatech มอบโซลูชันระดับระบบแบบครบวงจรสำหรับการกำจัดพื้นที่จัดเก็บข้อมูลของศูนย์ข้อมูล ซึ่งประกอบด้วยชุดซอฟต์แวร์ Link-Storage ประสิทธิภาพสูงที่ทำงานบน F2070X IPU ดูรูปที่ 4
ซอฟต์แวร์ Link-Storage ประกอบด้วยชุดฟังก์ชันที่หลากหลาย ซึ่งรวมถึง:
-
การถ่ายโอนเวิร์กโหลด NVMe/TCP จากโฮสต์ไปยัง IPU อย่างสมบูรณ์
-
การถ่ายโอนเวิร์กโหลด TCP จากโฮสต์ไปยัง IPU อย่างสมบูรณ์
-
NVMe ไปยังตัวเริ่มต้น TCP
-
การกำหนดค่าพื้นที่เก็บข้อมูลบนอินเทอร์เฟซ Storage Performance Development Kit Remote Procedure Call (SPDK RPC)
-
การรองรับ Multipath NVMe
-
การนำเสนออุปกรณ์บล็อก 16 รายการไปยังโฮสต์ผ่านอินเทอร์เฟซ virtio-blk
-
ความเข้ากันได้กับไดรเวอร์ virtio-blk มาตรฐานในการกระจาย Linux* ทั่วไป
-
การแยกความปลอดภัยระหว่าง CPU โฮสต์และ IPU โดยไม่มีอินเทอร์เฟซเครือข่ายเปิดเผยต่อโฮสต์
นอกเหนือจาก Link-Storage แล้ว F2070X ยังรองรับซอฟต์แวร์ Link-Virtualization ซึ่งมีส่วนงานข้อมูลที่ถูกถ่ายโอนและเร่งความเร็วแบบเสมือน รวมถึงฟังก์ชันต่างๆ เช่น Open vSwitch (OVS), การโยกย้ายแบบสด, การมิเรอร์ VM-to-VM, การปกปิดข้อมูล/การยกเลิกการปกปิดข้อมูล VLAN/VxLAN, Q-in-Q, การสร้างสมดุลโหลด Receive Side Scaling (RSS), การรวมลิงก์ และ Quality of Service (QoS)
เนื่องจาก F2070X ใช้ FPGA และ CPU แทนที่จะเป็น ASIC คุณจึงสามารถอัปเดตฟังก์ชันการทำงานทั้งหมดของแพลตฟอร์มได้หลังจากการปรับใช้ ไม่ว่าจะแก้ไขบริการที่มีอยู่ เพิ่มฟังก์ชันใหม่ หรือปรับแต่งพารามิเตอร์ประสิทธิภาพเฉพาะ การเขียนโปรแกรมใหม่นี้สามารถทำได้เป็นการอัปเกรดซอฟต์แวร์ภายในสภาพแวดล้อมเซิร์ฟเวอร์ที่มีอยู่เท่านั้น โดยไม่ต้องตัดการเชื่อมต่อ ถอด หรือเปลี่ยนฮาร์ดแวร์ใดๆ
Napatech F2070X IPU
Napatech F2070X IPU ซึ่งใช้แพลตฟอร์ม Intel® IPU F2000X-PL เป็นการ์ด PCIe 2x100G พร้อมด้วยเอฟพีจีเอ Intel Agilex® 7 F-Series และโปรเซสเซอร์ Intel® Xeon® D ใน Full Height, Half-Length (FHHL), ฟอร์มแฟคเตอร์แบบช่องคู่
การกำหนดค่ามาตรฐานของ F2070X IPU ประกอบด้วยเอฟพีจีเอ Intel Agilex® 7 AGF023 พร้อมหน่วยความจำ DDR4 ขนาด 4GB สี่ช่อง และโปรเซสเซอร์ Intel® Xeon® D-1736 ความเร็ว 2.3 GHz พร้อมหน่วยความจำ DDR4 ขนาด 8GB สองช่อง สามารถจัดส่งตัวเลือกการกำหนดค่าอื่นๆ เพื่อรองรับเวิร์กโหลดเฉพาะ
F2070X IPU เชื่อมต่อกับโฮสต์ผ่านอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) พร้อมด้วยอินเทอร์เฟซ PCIe 4.0 x16 (16 GTps) เพิ่มเติมระหว่าง FPGA และโปรเซสเซอร์
อินเทอร์เฟซเครือข่าย QSFP28/56 ที่แผงด้านหน้าสองช่องรองรับการกำหนดค่าเครือข่ายของ:
- 2x 100G;
-
8x 10G หรือ 8x 25G (ใช้สายเคเบิลแยก)
พอร์ต PTP RJ45 เฉพาะให้การซิงโครไนซ์เวลาเสริมกับคอนเนคเตอร์ SMA-F ภายนอกและตัวเชื่อมต่อ MCX-F ภายใน รองรับการประทับเวลา IEEE 1588v2
คอนเนคเตอร์อีเทอร์เน็ต RJ45 เฉพาะจัดหาการจัดการบอร์ด การอัปเดตอิมเมจ FPGA ที่ปลอดภัยช่วยให้เพิ่มฟังก์ชันใหม่หรืออัปเดตคุณสมบัติที่มีอยู่ได้หลังจากใช้งาน IPU แล้ว
โปรเซสเซอร์ใช้งาน Fedora Linux พร้อมด้วย UEFI BIOS, รองรับการบูต PXE, การเข้าถึงเชลล์แบบเต็มผ่าน SSH และ UART