Microsoft เปิดตัว Maia 200 ท้าชนชิปเจ้าตลาด NVIDIA Blackwell ลดต้นทุนการผลิตถึง 30%

ไมโครซอฟท์ (Microsoft) บริษัทเทคโนโลยียักษ์ใหญ่จากสหรัฐฯ กลับมาเขย่าบัลลังก์ชิปปัญญาประดิษฐ์ (AI) ระดับโลกอีกครั้ง ด้วยการเปิดตัวชิป Maia 200 ท้าชนชิปเจ้าตลาดอย่าง NVIDIA Blackwell ชูประสิทธิภาพด้านการอนุมานข้อมูลของ AI (AI Inference) ขนาดใหญ่ที่เร็วและแรงกว่าเดิม พร้อมชูจุดเด่นเรื่องต้นทุนที่ถูกลงจากชิปรุ่นก่อนหน้าของไมโครซอฟท์ถึง 30%
ชิป Maia 200 คืออะไร ?
Maia 200 คือ ชิปเร่งการประมวลผล AI ที่ออกแบบมาเพื่องานด้านการอนุมานข้อมูล AI (AI Inference) หรือ กระบวนการป้อนข้อมูลให้กับโมเดล AI ที่ได้รับการฝึกฝนแล้ว เพื่อสร้างผลลัพธ์ เช่น รูปภาพ ข้อความ หรือวิดีโอ โดยถูกปรับแต่งมาเพื่อรองรับการคาดการณ์ที่ซับซ้อนให้มีความรวดเร็วและแม่นยำสูงสุดบน Azure หรือ ระบบคลาวด์ของไมโครซอฟท์โดยเฉพาะ
เปิดสเปกขั้นเทพของชิป Maia 200 ท้าชนชิป NVIDIA Blackwell
ชิป Maia 200 ผลิตด้วยเทคโนโลยีล้ำสมัยจาก TSMC ขนาด 3 นาโนเมตร อัดแน่นด้วยทรานซิสเตอร์กว่า 1 แสนล้านตัว ในขณะที่คู่แข่งอย่าง NVIDIA Blackwell B200 ยังคงใช้กระบวนการผลิตระดับ 4 นาโนเมตร (Custom 4NP) ส่งผลให้ Maia 200 มีความได้เปรียบในแง่การจัดการพลังงาน โดยใช้ไฟเพียง 750 วัตต์ ขณะที่ NVIDIA Blackwell B200 อาจพุ่งสูงถึง 1,000 วัตต์ ตามข้อมูลที่ระบุโดยเว็บไซต์ข่าวต่างประเทศ ฮาร์ดแวร์ไทมส์ (https://hardwaretimes.com/nvidia-blackwell-gpu-1000w-power/)
Maia 200 รองรับการประมวลผลความละเอียดต่ำ (Low Precision) โดยให้พลังประมวลผลระดับ 4 บิต (FP4) สูงถึง 10 เพตาฟลอปส์ และ 8 บิต (FP8) ที่ประมาณ 5 เพตาฟลอปส์ ซึ่งถึงแม้ว่าในด้านความแรงของพลังประมวลผล NVIDIA Blackwell B200 จะสามารถทำตัวเลขได้สูงถึง 20 เพตาฟลอปส์ แต่ไมโครซอฟท์ได้เสนอแนวทางที่ต่างออกไป โดยมุ่งเน้นไปที่ ประสิทธิภาพการใช้งานจริง (Real-world Efficiency) สำหรับโครงสร้างพื้นฐานของตนเองมากกว่า
โดย Maia 200 มาพร้อมหน่วยความจำ HBM3e ขนาด 216GB ซึ่งมากกว่า NVIDIA Blackwell B200 ที่มีขนาด 192GB ความจุที่เพิ่มขึ้นนี้ช่วยให้ Maia 200 และยังมีหน่วยความจำพักข้อมูลด่วน (SRAM) ขนาด 272MB และระบบเคลื่อนย้านข้อมูล (Data Movement Engine) ที่ช่วยให้โมเดลขนาดใหญ่สามารถรับส่งข้อมูลได้อย่างต่อเนื่อง รวดเร็ว สามารถรันโมเดลขนาดใหญ่ระดับล้านล้านพารามิเตอร์อย่าง GPT-5.2 ได้จบในชิปตัวเดียวได้อย่างไหลลื่นกว่าโดยไม่ต้องแบ่งงานไปชิปอื่นให้เสียเวลา
นอกจากนี้ ประสิทธิภาพด้านราคาต่อหน่วย (Performance per Dollar) ยังดีกว่าระบบเดิมถึง 30% ทำให้ Maia 200 เป็นระบบ AI Inference ประสิทธิภาพสูงที่สุดที่ไมโครซอฟท์เคยนำมาใช้งาน โดยออกแบบมาให้มีประสิทธิภาพสูงสุดสำหรับบริการของไมโครซอฟท์โดยเฉพาะ
ก้าวต่อไปของชิป Maia 200
ปัจจุบัน ไมโครซอฟท์ได้เริ่มใช้งาน Maia 200 ในโครงสร้างพื้นฐานคลาวด์ทั่วโลกของบริษัท นำร่องโดยทีม Microsoft Superintelligence ที่นำไปใช้สร้างข้อมูลสังเคราะห์และการเรียนรู้แบบเสริมกำลัง เพื่อปรับปรุงโมเดลภายในองค์กร ที่สำคัญ Maia 200 จะถูกใช้ขับเคลื่อนปริมาณงาน AI ใน Microsoft Foundry และ Microsoft 365 Copilot ซึ่งเป็นส่วนหนึ่งของโครงสร้างพื้นฐาน AI ของไมโครซอฟท์ และจะเปิดให้ลูกค้าใช้งานได้อย่างครอบคลุมยิ่งขึ้นในอนาคต
ทั้งนี้ ไมโครซอฟท์ได้เปิดให้ลงทะเบียนทดลองใช้ Maia SDK สำหรับนักพัฒนา นักวิชาการ และผู้ร่วมโครงการโอเพนซอร์ส (Open Source) เพื่อช่วยให้สามารถปรับแต่งและปรับปรุงโมเดลและปริมาณงานได้อย่างมีประสิทธิภาพ
ควบคู่ไปกับการส่งเสริมการพัฒนา AI โดย Maia SDK หรือ เครื่องมือที่พัฒนาโดยไมโครซอฟท์สำหรับการสร้างและปรับแต่งโมเดล AI ประกอบด้วย Triton Compiler, PyTorch และ Maia Simulator สำหรับผู้สนใจสามารถลงทะเบียนเพื่อทดลองใช้ Maia SDK ได้ที่เว็บไซต์ทางการของไมโครซอฟท์
Tag
ยอดนิยมในตอนนี้
