AMD Instinct™ MI300 Series Accelerators
โซลูชันเพิ่มประสิทธิภาพ AI เชิงสร้างสรรค์ระดับแนวหน้า
และหน่วยประมวลผล APU สำหรับศูนย์ข้อมูล

Supercharging AI and HPC
ตัวช่วยการประมวลผล AMD Instinct™ MI300 Series ได้รับการออกแบบมาเป็นพิเศษให้เหมาะสมอย่างยิ่งสำหรับงานด้าน AI และการประมวลผลสมรรถนะสูง (HPC) ที่ต้องการทรัพยากรอย่างหนัก โดยมอบประสิทธิภาพการประมวลผลที่ยอดเยี่ยม ความจุหน่วยความจำสูงพร้อมแบนด์วิธที่รวดเร็ว และรองรับรูปแบบข้อมูลเฉพาะทา
Under the Hood
ตัวช่วยการประมวลผล AMD Instinct MI300 Series สร้างขึ้นบนสถาปัตยกรรม AMD CDNA™ 3 ซึ่งมาพร้อมกับเทคโนโลยี Matrix Core และรองรับความละเอียดของข้อมูลหลากหลายรูปแบบ ตั้งแต่ INT8 และ FP8 ที่มีประสิทธิภาพสูง (รวมถึงการรองรับ sparsity สำหรับงาน AI) ไปจนถึง FP64 ที่ใช้ในการประมวลผลระดับสูงสุดสำหรับงาน HPC

Meet the Series
สำรวจตัวช่วยการประมวลผล AMD Instinct MI300 Series,
แพลตฟอร์ม AMD Instinct MI300 Series
และหน่วยประมวลผลแบบ APU รุ่น AMD Instinct MI300A

Meet the AMD Instinct™ MI325X Accelerators
ตัวช่วยการประมวลผลกราฟิก AMD Instinct™ MI325X ยกระดับมาตรฐานใหม่ด้านประสิทธิภาพ AI ด้วยสถาปัตยกรรม AMD CDNA™ เจเนอเรชันที่ 3 มอบประสิทธิภาพและความคุ้มค่าที่ยอดเยี่ยมสำหรับทั้งการฝึกสอนโมเดลและการประมวลผลผลลัพธ์ (Inference) พร้อมหน่วยความจำ HBM3E ขนาด 256 GB ซึ่งเป็นผู้นำในอุตสาหกรรม และแบนด์วิธสูงถึง 6 TB/s ช่วยเพิ่มประสิทธิภาพการทำงานและลดต้นทุนรวมในการเป็นเจ้าของ (TCO) ได้อย่างมีประสิทธิภาพ.
304 CUs
304 GPU Compute Units
256 GB
256 GB HBM3E Memory
6 TB/s
6 TB/s Peak Theoretical Memory Bandwidth
Specs Comparisons
AI Performance (Peak TFLOPs)
Up to 1.3X the AI performance vs. competitive accelerators2, 3

HPC Performance (Peak TFLOPs)
Up to 2.4X the HPC performance vs. competitive accelerators3

Memory Capacity & Bandwidth
1.8X Memory Capacity and 1.2X Memory Bandwidth vs. competitive accelerators1

Instinct MI300X Accelerators
ตัวช่วยการประมวลผล AMD Instinct MI300X Series ถูกออกแบบมาเพื่อมอบประสิทธิภาพชั้นนำสำหรับงานประมวลผล AI เชิงสร้างสรรค์ (Generative AI) และแอปพลิเคชันด้านการประมวลผลสมรรถนะสูง (HPC)

304 CUs
304 GPU Compute Units
192 GB
192 GB HBM3 Memory
5.3 TB/s
5.3 TB/s Peak Theoretical Memory Bandwidth
Runs Hugging Face OPT transformer Large Language Model (LLM) on 66B parameter on 1 GPU⁵
Offers approximately 6.8X the AI training workload performance using FP8 vs. MI250 accelerators using FP16⁴
AI Performance (Peak TFLOPs)
Up to 1.3X the AI performance vs. competitive accelerators6

HPC Performance (Peak TFLOPs)
Up to 2.4X the HPC performance vs. competitive accelerators7

Memory Capacity & Bandwidth
2.4X Memory Capacity and 1.6X Peak Theoretical Memory Bandwidth vs. competitive accelerators8

AMD Instinct Platforms
แพลตฟอร์ม AMD Instinct MI325X ผสานรวมโมดูล GPU MI325X แบบ OAM จำนวน 8 ตัวเข้าด้วยกันอย่างสมบูรณ์ บนดีไซน์มาตรฐานอุตสาหกรรม OCP ผ่านการเชื่อมต่อด้วยเทคโนโลยี AMD Infinity Fabric™ เจเนอเรชันที่ 4 มอบความจุหน่วยความจำ HBM3E สูงสุดถึง 2TB เพื่อรองรับการประมวลผล AI ที่มีความหน่วงต่ำ แพลตฟอร์มนี้พร้อมใช้งานทันที ช่วยเร่งเวลาออกสู่ตลาด และลดต้นทุนการพัฒนาเมื่อต้องการติดตั้งตัวเร่ง MI325X เข้ากับระบบแร็คและเซิร์ฟเวอร์ AI ที่มีอยู่เดิม

8 MI325X
8 MI325X GPU OAM modules
2 TB
2 TB Total HBM3E Memory
48 TB/s
48 TB/s Peak Theoretical Aggregate Memory Bandwidth
คาดว่าจะให้ประสิทธิภาพการประมวลผลแบบทศนิยมลอยตัวสูงสุดที่ 20.9 PFLOPs สำหรับ FP16 และ BF16 เมื่อรวมกับเทคนิคการลดความหนาแน่นของข้อมูล (sparsity)

AMD Instinct MI300A APUs
หน่วยประมวลผลแบบเร่งความเร็ว AMD Instinct MI300A (APUs) ผสานพลังของตัวเร่งการประมวลผล AMD Instinct เข้ากับโปรเซสเซอร์ AMD EPYC™ โดยใช้หน่วยความจำร่วมกัน เพื่อเพิ่มประสิทธิภาพ ความยืดหยุ่น และความสามารถในการพัฒนาโปรแกรม หน่วยประมวลผลเหล่านี้ถูกออกแบบมาเพื่อเร่งการบูรณาการระหว่าง AI และการประมวลผลสมรรถนะสูง (HPC) เพื่อสนับสนุนความก้าวหน้าในการวิจัยและการค้นพบใหม่ ๆ
228 CUs
228 GPU Compute Units
24
24 “Zen 4” x86 CPU Cores
128 GB
128 GB Unified HBM3 Memory
5.3 TB/s
5.3 TB/s Peak Theoretical Memory Bandwidth
ให้ประสิทธิภาพการทำงานในงาน HPC ประมาณ 2.6 เท่าต่อวัตต์เมื่อใช้ FP32 เมื่อเทียบกับตัวเร่ง AMD MI250X
AI Performance (Peak TFLOPs)

HPC Performance (Peak TFLOPs)
Up to 1.8X the HPC performance vs. competitive accelerators

Memory Capacity & Bandwidth
2.4X Memory Capacity and 1.6X Peak Theoretical Memory Bandwidth vs. competitive accelerators

Advancing Exascale Computing
ตัวช่วยการประมวลผล AMD Instinct เป็นพลังขับเคลื่อนให้กับซูเปอร์คอมพิวเตอร์ชั้นนำของโลกหลายระบบ รวมถึงระบบ El Capitan ของห้องปฏิบัติการแห่งชาติลอว์เรนซ์ ลิเวอร์มอร์ (Lawrence Livermore National Laboratory) ดูว่าซูเปอร์คอมพิวเตอร์ระดับสอง Exascale เครื่องนี้จะใช้ AI อย่างไรในการรันการจำลองที่ไม่เคยมีมาก่อน และผลักดันงานวิจัยทางวิทยาศาสตร์ให้ก้าวหน้าไปอีกขั้นอย่างไร
AMD ROCm™ Software
ซอฟต์แวร์ AMD ROCm™ ประกอบด้วยชุดเครื่องมือ โปรแกรมเมอร์ โมเดลการเขียนโปรแกรม ตัวคอมไพเลอร์ ไลบรารี และรันไทม์ที่หลากหลาย สำหรับงานโมเดล AI และงานประมวลผลสมรรถนะสูง (HPC) ที่มุ่งเป้าไปยังตัวเร่งการประมวลผล AMD Instinct
