ข้ามไปที่เนื้อหาหลัก
โลโก้ Intel - กลับไปที่หน้าหลัก

ลงชื่อเข้าใช้

ไม่มีชื่อผู้ใช้ของคุณ
ไม่มีรหัสผ่านของคุณ

ด้วยการลงชื่อเข้าใช้ หมายถึงคุณยอมรับเงื่อนไขการให้บริการของเรา

ลืมชื่อผู้ใช้ของ Intel หรือรหัสผ่าน?

คำถามที่พบบ่อย

คุณทำงานให้ Intel? ลงชื่อเข้าใช้ที่นี่.

ยังไม่มีบัญชี Intel ใช่หรือไม่ ลงทะเบียนที่นี่ สำหรับบัญชีทั่วไป

เครื่องมือของฉัน

เลือกภูมิภาคของคุณ

Asia Pacific

  • Asia Pacific (English)
  • Australia (English)
  • India (English)
  • Indonesia (Bahasa Indonesia)
  • Japan (日本語)
  • Korea (한국어)
  • Mainland China (简体中文)
  • Taiwan (繁體中文)
  • Thailand (ไทย)
  • Vietnam (Tiếng Việt)

Europe

  • France (Français)
  • Germany (Deutsch)
  • Ireland (English)
  • Italy (Italiano)
  • Poland (Polski)
  • Spain (Español)
  • Turkey (Türkçe)
  • United Kingdom (English)

Latin America

  • Argentina (Español)
  • Brazil (Português)
  • Chile (Español)
  • Colombia (Español)
  • Latin America (Español)
  • Mexico (Español)
  • Peru (Español)

Middle East/Africa

  • Israel (עברית)

North America

  • United States (English)
  • Canada (English)
  • Canada (Français)
ลงชื่อเข้าใช้ เพื่อเข้าถึงเนื้อหาที่มีการจำกัดการเข้าถึง

ใช้งานการค้นหาของ Intel.com

คุณสามารถค้นหาสิ่งต่าง ๆ ในเว็บไซต์ Intel.com ทั้งเว็บไซต์ได้หลายวิธี

  • ชื่อแบรนด์: Core i9
  • หมายเลขเอกสาร: 123456
  • ชื่อรหัส: Alder Lake
  • ผู้ให้บริการพิเศษ: “Ice Lake”, Ice AND Lake, Ice OR Lake, Ice*

ลิงค์ด่วน

นอกจากนี้คุณยังสามารถลองลิงค์ด่วนด้านล่างเพื่อดูผลลัพธ์สำหรับการค้นหายอดนิยม

  • ข้อมูลผลิตภัณฑ์
  • การสนับสนุน
  • ไดรเวอร์และซอฟต์แวร์

การค้นหาล่าสุด

ลงชื่อเข้าใช้ เพื่อเข้าถึงเนื้อหาที่มีการจำกัดการเข้าถึง

ค้นหาขั้นสูง

ค้นหาเฉพาะใน

Sign in to access restricted content.

ไม่ขอแนะนำเวอร์ชันของเบราเซอร์ที่คุณกำลังใช้อยู่สำหรับไซต์นี้
โปรดพิจารณาในการอัพเกรดเบราเซอร์เป็นเวอร์ชันล่าสุดด้วยการคลิกลิงค์ใดลิงค์หนึ่งต่อไปนี้

  • Safari
  • Chrome
  • Edge
  • Firefox

AI Frameworks

Get performance gains ranging up to 10x to 100x for popular deep-learning and machine-learning frameworks through drop-in Intel® optimizations.

AI frameworks provide data scientists, AI developers, and researchers the building blocks to architect, train, validate, and deploy models, through a high-level programming interface. All major frameworks for deep learning and classical machine learning have been optimized by using oneAPI libraries that provide optimal performance across Intel® CPUs and XPUs. These Intel® software optimizations help deliver orders of magnitude performance gains over stock implementations of the same frameworks. As a framework user, you can reap all performance and productivity benefits through drop-in acceleration without the need to learn new APIs or low-level foundational libraries. 

 

Performance Gains

Deep-Learning Frameworks

  

  

Intel® Optimization for TensorFlow*

TensorFlow* is a widely used deep-learning framework that's based on Python*. It's designed for flexible implementation and extensibility on modern deep neural networks. 

Intel is collaborating with Google* to optimize its performance on platforms based on the Intel® Xeon® processor. The platforms use the Intel® oneAPI Deep Neural Network Library (oneDNN), an open-source, cross-platform performance library for deep-learning applications. These optimizations are directly upstreamed and made available in the official TensorFlow release via a simple flag update, which enables developers to seamlessly benefit from the Intel® optimizations.

The latest version of Intel® Optimization for TensorFlow* is included as part of the Intel® oneAPI AI Analytics Toolkit (AI Kit). This kit provides a comprehensive and interoperable set of AI software libraries to accelerate end-to-end data science and machine-learning workflows. 

oneDNN

AI Kit

Download as Part of the AI Kit

  

Additional Download Options

Anaconda*

Docker*

PIP*

 

Documentation

Installation Guide

Performance Guide

Intel® Optimization for PyTorch*

The PyTorch* for Python* package provides one of the fastest implementations of dynamic neural networks to achieve speed and flexibility. Intel and Facebook* extensively collaborated to: 

  • Include many Intel optimizations in this popular framework 
  • Provide superior PyTorch performance on Intel® architectures, most notably Intel® Xeon® Scalable processors

The optimizations are built using oneDNN to provide cross-platform support and acceleration. 

Intel also provides Intel® Extension for PyTorch* for more capabilities that have not yet been upstreamed, including:

  • Support for automatic mixed precision
  • Customized operators
  • Fusion patterns 

This optimization adds bindings with Intel® oneAPI Collective Communications Library (oneCCL) for efficient distributed training and is a consolidated package. It provides the best out-of-box experience to get all of the performance benefits from PyTorch. The package has the latest versions of:

  • Stock PyTorch with Intel® optimizations
  • Intel Extension for PyTorch
  • oneCCL

Intel® Optimization for Pytorch* is made available as part of the AI Kit that provides a comprehensive and interoperable set of AI software libraries to accelerate end-to-end data science and machine-learning workflows. 

Intel Extension for PyTorch

oneCCL

AI Kit

Download as Part of the AI Kit

  

Additional Download Options

Anaconda

Docker

 

Documentation

Installation Guide

Apache MXNet*

This open-source, deep-learning framework is highly portable, lightweight, and designed to offer efficiency and flexibility through imperative and symbolic programming. MXNet* includes built-in support for Intel optimizations to achieve high performance on Intel Xeon Scalable processors.

  

Additional Download Options

Docker

PIP

Documentation

Installation Guide

Optimization Techniques

Performance Tips

PaddlePaddle*

This open-source, deep-learning Python* framework from Baidu* is known for user-friendly, scalable operations. Built using oneDNN, this popular framework provides fast performance on Intel Xeon Scalable processors and a large collection of tools to help AI developers.

Download Options

Docker

PIP

Documentation

Get Started Guide

Machine-Learning Frameworks

  

  

Intel® Extension for Scikit-learn*

Scikit-learn* is one of the most widely used Python packages for data science and machine learning. Intel provides a seamless way to speed up the many algorithms of scikit-learn on Intel® CPUs and GPUs through the Intel® Extension for Scikit-learn*. This extension package dynamically patches scikit-learn estimators to use Intel® oneAPI Data Analytics Library (oneDAL) as the underlying solver. It achieves the speedup for machine learning algorithms on Intel architectures, both single and multi-nodes. 

The latest version of Intel Extension for Scikit-learn is also included as part of the AI Kit. It provides a comprehensive and interoperable set of AI software libraries to accelerate end-to-end data science and machine-learning workflows. 

Intel Extension for Scikit-learn

oneDAL

AI Kit

Download as Part of the AI Kit

  

Additional Download Options

Anaconda

Conda*-Forge

PIP

Documentation

Installation Guide

More Details

XGBoost Optimized by Intel

This is a well-known machine-learning package for gradient-boosted decision trees. It includes seamless, drop-in acceleration for Intel architectures to significantly speed up model training and improve accuracy for better predictions. In collaboration with XGBoost community, Intel has been directly upstreaming many optimizations to provide superior performance on Intel CPUs. 

The latest version of XGBoost that Intel optimizes is included as part of the AI Kit. It provides a comprehensive and interoperable set of AI software libraries to accelerate end-to-end data science and machine-learning workflows. 

AI Kit

Download as Part of the AI Kit

  

Additional Download Options

Anaconda

 

Documentation

Installation Guide

Explore Our Comprehensive Portfolio of End-to-End AI Tools

Get Access to Our Development Sandbox to Test and Run Workloads

Browse Our Production-Quality AI Containers and Solutions Catalog

แสดงเพิ่มขึ้น แสดงน้อยลง
  • Deep-Learning Frameworks
  • Machine Learning Frameworks
  • ข้อมูลบริษัท
  • ความมุ่งมั่นของเรา
  • ความหลากหลายและการไม่แบ่งแยก
  • นักลงทุนสัมพันธ์
  • ติดต่อเรา
  • Newsroom
  • แผนผังเว็บไซต์
  • งาน
  • © Intel Corporation
  • ข้อกำหนดการใช้งาน
  • *เครื่องหมายการค้า
  • คุ้กกี้
  • ความเป็นส่วนตัว
  • ความโปร่งใสของห่วงโซ่อุปทาน
  • อย่าแบ่งปันข้อมูลส่วนตัวของฉัน

เทคโนโลยี Intel อาจต้องใช้การเปิดใช้ฮาร์ดแวร์ ซอฟต์แวร์ หรือบริการ // ไม่มีผลิตภัณฑ์หรือส่วนประกอบใดที่จะปลอดภัยอย่างสมบูรณ์แบบ // ค่าใช้จ่ายและผลลัพธ์ของคุณอาจแตกต่างกันไป // ประสิทธิภาพจะแตกต่างกันไปตามการใช้งาน การกำหนดค่า และปัจจัยอื่นๆ // ดูประกาศและข้อสงวนสิทธิ์ทางกฎหมายแบบสมบูรณ์ของเรา // Intel มุ่งมั่นที่จะให้ความเคารพในสิทธิมนุษยชน และหลีกเลี่ยงการมีส่วนร่วมในการละเมิดสิทธิมนุษยชน ดูหลักการด้านสิทธิมนุษยชนระดับโลกของ Intel ผลิตภัณฑ์และซอฟต์แวร์ Intel ผลิตมาเพื่อใช้เฉพาะในแอปพลิเคชันที่ไม่เป็นเหตุหรือมีส่วนให้เกิดการละเมิดต่อสิทธิมนุษยชนที่ยอมรับในระดับสากล

โลโก้ท้ายหน้าของ Intel