ไมโครซอฟท์เดินหน้าสร้างมาตรฐานใหม่ให้กับอุตสาหกรรมพร้อมยกระดับโครงสร้างพื้นฐาน AI เปิดตัว “Maia 200” ชิปเร่งการประมวลผล AI สำหรับงานอินเฟอเรนซ์เจเนอเรชันล่าสุด ออกแบบมาเพื่อเพิ่มขีดความสามารถของ AI อินเฟอเรนซ์ขนาดใหญ่ ด้วยประสิทธิภาพเหนือชั้นและต้นทุนในการประมวลผลที่ลดลง Maia 200 มอบสมรรถนะสูงในการรันโมเดล AI ที่ซับซ้อนได้อย่างรวดเร็ว พร้อมเสริมแกร่งโครงสร้างพื้นฐานคลาวด์ Azure ของไมโครซอฟท์ให้สามารถทำงานได้อย่างมีประสิทธิภาพและคุ้มค่ายิ่งขึ้น Maia 200 ผลิตด้วยกระบวนการ TSMC 3 นาโนเมตร ประกอบด้วยทรานซิสเตอร์กว่า 1 แสนล้านตัว ตอบโจทย์งาน AI ขนาดใหญ่โดยเฉพาะ ด้วยความสามารถในการประมวลผล 4-bit (FP4) ได้มากกว่า 10 PetaFLOPS และ 8-bit (FP8) ที่ประมาณ 5 PetaFLOPS ทำให้สามารถรันโมเดล AI ที่ซับซ้อนได้อย่างรวดเร็วและมีศักยภาพรองรับโมเดลในอนาคต โดยออกแบบระบบหน่วยความจำใหม่ทั้งหมดเพื่อแก้ปัญหาคอขวดด้านการส่งข้อมูล ด้วยระบบหน่วยความจำ HBM3e ขนาด 216GB ที่ความเร็ว 7 TB/s, on-chip SRAM ขนาด 272MB และ Data Movement Engine ที่ช่วยให้โมเดลขนาดใหญ่สามารถรับส่งข้อมูลได้อย่างต่อเนื่อง รวดเร็ว และใช้ทรัพยากรได้อย่างคุ้มค่า นอกจากนี้ ประสิทธิภาพด้านราคาต่อหน่วย (perf/$) ยังดีกว่าระบบเดิมถึง 30% ทำให้ Maia 200 เป็นระบบอินเฟอเรนซ์ ประสิทธิภาพสูงที่สุดที่ไมโครซอฟท์เคยนำมาใช้งาน นอกจากนี้ Maia 200 รองรับแบนด์วิดท์ Dedicated Scale Up ถึง 1.4 TB/s สามารถขยายการทำงานในคลัสเตอร์ขนาดใหญ่ได้ถึง 6,144 ตัว มอบประสิทธิภาพที่ปรับขนาดได้สำหรับคลัสเตอร์อินเฟอเรนซ์ ที่มีความหนาแน่นสูง ช่วยลดการใช้พลังงานและต้นทุนรวมในการเป็นเจ้าของ (TCO) สำหรับโครงสร้างพื้นฐาน Azure ทั่วโลกของไมโครซอฟท์ พร้อมที่จะบูรณาการเข้ากับ Azure Control Plane เพื่อการรักษาความปลอดภัย... Read More















