เวิร์กโฟลว์ Master Data Science
เวิร์คสเตชันที่ออกแบบมาเป็นพิเศษเหล่านี้รวมช่วงหน่วยความจําขนาดใหญ่ สล็อตเพิ่มขยายจํานวนมากเพื่อเชื่อมต่ออุปกรณ์หลายเครื่องและ CPU ที่ผ่านการคัดสรรซึ่งออกแบบมาเพื่อตอบสนองความต้องการเฉพาะของนักวิทยาศาสตร์ข้อมูลที่ใช้ Python และนักวิเคราะห์ข้อมูลเช่นคุณ
เวิร์คสเตชันวิทยาศาสตร์ข้อมูล: รวมมหาอํานาจ
ในฐานะนักวิทยาศาสตร์ข้อมูล คุณใช้เวลาส่วนใหญ่ในการทําให้ชุดข้อมูลขนาดกลางและขนาดใหญ่ในไลบรารีและอัลกอริธึมของ Python ที่ใช้ CPU ใช้ประโยชน์เป็นหลัก ซึ่งจะทําให้เวิร์คสเตชันส่วนใหญ่คุกเข่าลง
นั่นเพราะว่าเวิร์คสเตชันของคุณอาจถูกสร้างมากเกินไปสําหรับการฝึกอบรมโมเดล แต่ไม่ได้สร้างมาเพื่อการเปลี่ยนแปลงข้อมูลที่ใช้หน่วยความจํามาก
หลีกเลี่ยงข้อผิดพลาดของหน่วยความจําเมื่อพยายามโหลดและสํารวจข้อมูล - ประสบการณ์ทั่วไปเมื่อฟังก์ชั่น Pandas ต้องการหน่วยความจํามากกว่าที่เครื่องหรืออินสแตนซ์คลาวด์ของคุณมีให้ใช้งาน
การประมวลผล NumPy/SciPy ที่เร็วขึ้นกว่าเจนเนอเรชั่นก่อนหน้า
Algebra Linear เป็นรากฐานของตัวเลขและวิทยาศาสตร์ข้อมูล เครื่องมือการประมวลผลตัวเลขที่จัดทําโดย NumPy และ SciPy ช่วยให้นักวิทยาศาสตร์ข้อมูลสามารถทํางานผ่านการวิเคราะห์ตัวเลขและฟังก์ชันและโมเดลการเรียนรู้ของเครื่องและสูตรทางคณิตศาสตร์ที่หลากหลาย iBench เป็นเกณฑ์มาตรฐานที่ทดสอบคําสั่งเน้นความตึงเครียดใน algebra ของอัลกอริธึมทั่วไปที่ใช้ใน NumPy และ SciPy เช่น Dot, det, inv, lu, qr และ svd วัดประสิทธิภาพเป็นวินาที (ต่ํากว่าคือดีกว่า) เมื่อเทียบกับ Xeon-W3275 เจนเนอเรชั่น 3 Xeon-W3495X เจนเนอเรชั่น 4 ทําการทดสอบ iBench เร็วขึ้น 25% ถึง 75%1
Supercharge Data Science
เราออกแบบ Intel-based เวิร์คสเตชันวิทยาศาสตร์ข้อมูลเพื่อทําให้ AI ที่ใช้ข้อมูลสูงและเวิร์คโฟลวเวิร์คการเรียนรู้ของเครื่องรวดเร็ว ลื่นไหลและตอบสนองฉับไว เวิร์คสเตชันเหล่านี้สามารถรันชุดข้อมูลขนาดกลางถึงขนาดใหญ่ในหน่วยความจําและขจัดงานที่ใช้เวลานานที่สุดในการพัฒนา AI ด้วยหน่วยความจําสูงสุดถึง 8TB ในระบบซ็อกเก็ตคู่และ CPU ที่จับคู่เวิร์คโหลด
เวิร์คสเตชันวิทยาศาสตร์ข้อมูลที่ใช้ Intel ที่แนะนํา
Intel-based เวิร์คสเตชันวิทยาศาสตร์ข้อมูลมาใน 3 แพลตฟอร์ม ได้แก่ อุปกรณ์พกพา กระแสหลัก และผู้เชี่ยวชาญ พร้อม CPU ความจุหน่วยความจํา และสล็อตเพิ่มขยาย PCIe ที่หลากหลาย
แพลตฟอร์มมือถือ Data Science สําหรับชุดข้อมูลขนาด 32GB-64GB
ประสิทธิภาพที่โดดเด่นสําหรับการพัฒนา AI แบบพกพาและการแสดงผลภาพข้อมูล
- Intel Core HX-ซีรีส์ สูงสุด 24 คอร์ (8P+16E)
- DRAM DDR5 ขนาด 128GB สําหรับทุกแพลตฟอร์ม
- SKU ที่แนะนํา:
- i9-13950HX (24 คอร์)
- i7-13850HX (20 คอร์)
แพลตฟอร์มหลักวิทยาศาสตร์ข้อมูลสําหรับชุดข้อมูล 64GB-512GB
ประสิทธิภาพต่อดอลลาร์ที่ยอดเยี่ยมสําหรับการประมวลผลล่วงหน้าและการวิเคราะห์บนชุดข้อมูลขนาดกลาง
- Intel Xeon โปรเซสเซอร์ W-2400 พร้อมปลดล็อคสูงสุด 24 คอร์
- DDR5 RIDMM สูงสุด 2TB
- SKU ที่แนะนํา:
- W7-2495X (24 คอร์)
- W5-2465X (16 คอร์)
แพลตฟอร์มผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลสําหรับสูงสุด 8TB DDR5 สําหรับแพลตฟอร์มซ็อกเก็ตคู่
ประสิทธิภาพสูงสุดสําหรับการจัดการชุดข้อมูลขนาดใหญ่ การเรียนรู้ของเครื่อง และการวิเคราะห์ข้อมูล
- Intel Xeon โปรเซสเซอร์ W-3400 ที่มีสูงสุด 56 คอร์
- DDR5 RIDMM สูงสุด 4TB สําหรับซีรีส์ W-3400 และสูงสุด 8TB DDR5 สําหรับแพลตฟอร์ม Xeon SP เจนเนอเรชั่น 4 แบบคู่
- SKU ที่แนะนําสําหรับแพลตฟอร์มซ็อกเก็ตเดี่ยว:
- W9-3475X(36 คอร์)
- W7-3455 (24 คอร์)
- W5-3425X (16 คอร์)
- SKU ที่แนะนําสําหรับแพลตฟอร์มซ็อกเก็ตคู่:
- 6448Y (32 คอร์)
- 6442Y (24 คอร์)
- 6444Y (16 คอร์)
เลือกเวิร์คสเตชันวิทยาศาสตร์ข้อมูลที่ใช้ Intel ของคุณ
Intel-based เวิร์คสเตชันวิทยาศาสตร์ข้อมูลมีการกําหนดค่าที่หลากหลายและราคาที่หลากหลายจากพาร์ทเนอร์และผู้ผลิต Intel
ทํางานได้เร็วขึ้นด้วยชุดเครื่องมือ Intel® oneAPI AI Analytics
เราได้ปรับเครื่องมือที่ได้รับความนิยมสูงสุดในระบบนิเวศ Python สําหรับสถาปัตยกรรม Intel และรวมไว้ในชุดเครื่องมือ Intel oneAPI AI Analytics เพื่อช่วยให้ประสบการณ์ของคุณง่ายขึ้นในการสร้างสภาพแวดล้อมวิทยาศาสตร์ข้อมูลของคุณและเพื่อเพิ่มประสิทธิภาพของเครื่องมือเหล่านี้ การเพิ่มประสิทธิภาพแบบ Drop-in เหล่านี้พร้อมให้ใช้งานเพื่อให้คุณสามารถทํางานได้เร็วขึ้นโดยไม่มีการเปลี่ยนแปลงการเข้ารหัส
คำ ถาม
มีสองปัจจัยหลักที่จะต้องพิจารณาเมื่อเลือกเวิร์คสเตชันวิทยาศาสตร์ข้อมูล: เครื่องมือและเทคนิคที่คุณใช้มากที่สุดและขนาดชุดข้อมูลของคุณ
เมื่อพูดถึงเฟรมเวิร์กวิทยาศาสตร์ข้อมูล จํานวนคอร์ที่สูงขึ้นจะไม่เปลี่ยนเป็นประสิทธิภาพที่ดีขึ้นเสมอไป NumPy, SciPy และ scikit-learn ไม่ได้ปรับขนาดได้ดีในอดีต 18 คอร์ ในทางกลับกัน หนัก AI (เดิมชื่อ OmniSci) จะใช้คอร์ทั้งหมดที่จะได้รับ
เวิร์คสเตชันวิทยาศาสตร์ข้อมูล Intel-based ทั้งหมดใช้โปรเซสเซอร์ Intel® Core™ Intel® Xeon® W และ Intel® Xeon® scalable ที่รองรับเวิร์คโหลดวิทยาศาสตร์ข้อมูลในการทดสอบการใช้งานจริง คุณจะได้รับประสิทธิภาพที่ดีที่สุดสําหรับตระกูลโปรเซสเซอร์จากทั้งหมด ซึ่งทําให้หน่วยความจําเป็นตัวเลือกที่สําคัญที่สุดของคุณ
เฟรมเวิร์กวิทยาศาสตร์ข้อมูลหน่วยความจําแบบลูกโป่งมีขนาดสองถึงสามเท่า ในการรับความต้องการหน่วยความจําพื้นฐานของคุณ ให้ตรวจสอบชุดข้อมูลทั่วไปและหลายชุดข้อมูลภายในสามชุด หากคุณสามารถทํางานกับเดสก์ท็อปได้น้อยกว่า 512 GB คุณจะได้รับประสิทธิภาพที่ยอดเยี่ยมในเครื่องเดสก์ท็อป หากชุดข้อมูลของคุณมีแนวโน้มที่จะสูงกว่า 500 GB คุณจะต้องการทาวเวอร์ที่มีหน่วยความจําขนาด 1.5 TB หรือมากกว่า
ตัวเร่งความเร็ว GPU จะส่องแสงในการฝึกอบรมโมเดลการเรียนรู้เชิงลึกและการอนุมานการเรียนรู้เชิงลึกขนาดใหญ่ อย่างไรก็ตาม สําหรับงานวิทยาศาสตร์ข้อมูลจํานวนมาก เช่น การเตรียมข้อมูล การวิเคราะห์ และการเรียนรู้ของเครื่องแบบคลาสสิก GPU เหล่านี้ไม่ได้ใช้งานอยู่เนื่องจากไลบรารี Python ส่วนใหญ่สําหรับวิทยาศาสตร์ข้อมูลจะทํางานบน CPU คุณจําเป็นต้องมีอะแดปเตอร์กราฟิกเพื่อขับเคลื่อนจอแสดงผลของคุณ แต่ไม่ใช่อุปกรณ์ GPU
ระบบคลาวด์จะไม่มอบประสิทธิภาพที่ดีที่สุดให้คุณ เว้นแต่ว่าคุณจะทํางานบน VM เฉพาะหรือเซิร์ฟเวอร์ Bare Metal อินสแตนซ์คลาวด์นําเสนอตัวเองเป็นโหนดเดียว แต่มีการกระจายสิ่งต่าง ๆ มากมาย เวิร์คโหลดและข้อมูลของคุณถูกแยกออกเป็นหลายเซิร์ฟเวอร์ในหลายสถานที่ ซึ่งสร้างความหน่วงแฝงของการประมวลผลและหน่วยความจําที่ลดรันไทม์ นอกจากนี้ การทํางานกับชุดข้อมูลและกราฟขนาดใหญ่ผ่านเดสก์ท็อประยะไกลยังไม่ใช่ประสบการณ์ที่สมบูรณ์แบบ
การรักษาเวิร์คโหลดและข้อมูลภายในเครื่องเดียวสามารถมอบประสิทธิภาพที่ดีขึ้นมากและประสบการณ์การทํางานที่ลื่นไหลและตอบสนองได้ดียิ่งขึ้น
คุณสามารถทําได้ แต่คุณจะเผาผลาญเวลามากมายในการดูข้อมูลระหว่างอุปกรณ์จัดเก็บข้อมูล หน่วยความจํา และ CPU หากคุณกําลังทํางานในสภาพแวดล้อมระดับมืออาชีพ การอัปเกรดเป็นแล็ปท็อปวิทยาศาสตร์ข้อมูลของ Intel® หรือเดสก์ท็อปแบบ Midrange สามารถช่วยประหยัดเวลาได้ เราจงใจทดสอบและทดสอบแล็ปท็อปวิทยาศาสตร์ข้อมูลที่ใช้ Intel® Core™เพื่อช่วยให้นักเรียน ผู้สนใจเข้าถึงข้อมูล และผู้สร้าง AI สามารถมีตัวเลือกราคาย่อมเยาสําหรับการพัฒนาและทดลองใช้เครื่องมือ AI แบบโอเพนซอร์ส
คุณสามารถเรียกใช้งานเครื่องมือวิทยาศาสตร์ข้อมูลที่ใช้ Python ได้เร็วขึ้นบนพีซีมาตรฐานโดยใช้ไลบรารีและการจัดจําหน่ายที่ปรับให้เหมาะสมกับ Intel ทั้งหมดนี้เป็นส่วนหนึ่งของชุด Intel AI ฟรี
ประกาศและข้อสงวนสิทธิ์
ตามที่ประมาณการไว้โดยการวัดผลโดยใช้แพลตฟอร์มการตรวจสอบของ Intel โดยเปรียบเทียบ Intel Xeon w9-3495X กับ Intel® Xeon® W-3275 บน NumPy/SciPy – Inv, N=25000
ดู intel.com/performanceindex สําหรับรายละเอียดการกําหนดค่า ผลลัพธ์อาจแตกต่างออกไป
ผลลัพธ์ประสิทธิภาพตามการทดสอบในวันที่ที่ระบุไว้ในการกําหนดค่า และอาจไม่แสดงถึงการอัปเดตที่เผยแพร่ต่อสาธารณะ ดูการสํารองข้อมูลสําหรับรายละเอียดการกําหนดค่า เรียนรู้เพิ่มเติมได้ที่ intel.com/PerformanceIndex
การเร่งความเร็ว Pandas, scikit-learn และการเร่งความเร็ว TensorFlow ทําได้โดยใช้ Intel® Distribution of Modin สําหรับรายละเอียด โปรดดูที่ intel.com/content/www/th/th/developer/articles/technical/code-changes-boost-pandas-scikit-learn-tensorflow.html#gs.mdyh9o
© Intel Corporation Intel, โลโก้ Intel และเครื่องหมาย Intel อื่นๆ เป็นเครื่องหมายการค้าของ Intel Corporation หรือบริษัทสาขา ชื่อและยี่ห้ออื่นๆ อาจเป็นกรรมสิทธิ์ของผู้อื่น
ข้อมูลผลิตภัณฑ์และประสิทธิภาพ
เนื้อหาในหน้านี้เป็นการผสมผสานระหว่างการแปลเนื้อหาต้นฉบับภาษาอังกฤษโดยมนุษย์และคอมพิวเตอร์ เนื้อหานี้จัดทำขึ้นเพื่อความสะดวกของคุณและเพื่อเป็นข้อมูลทั่วไปเท่านั้นและไม่ควรอ้างอิงว่าสมบูรณ์หรือถูกต้อง หากมีความขัดแย้งใด ๆ ระหว่างเวอร์ชันภาษาอังกฤษของหน้านี้กับคำแปล เวอร์ชันภาษาอังกฤษจะมีผลเหนือกว่าและควบคุม ดูเวอร์ชันภาษาอังกฤษของหน้านี้