รีเซต

Microsoft เปิดตัว Maia 200 ท้าชนชิปเจ้าตลาด NVIDIA Blackwell ลดต้นทุนการผลิตถึง 30%

Microsoft เปิดตัว Maia 200 ท้าชนชิปเจ้าตลาด NVIDIA Blackwell ลดต้นทุนการผลิตถึง 30%
TNN ช่อง16
29 มกราคม 2569 ( 10:12 )

ไมโครซอฟท์ (Microsoft) บริษัทเทคโนโลยียักษ์ใหญ่จากสหรัฐฯ กลับมาเขย่าบัลลังก์ชิปปัญญาประดิษฐ์ (AI) ระดับโลกอีกครั้ง ด้วยการเปิดตัวชิป Maia 200 ท้าชนชิปเจ้าตลาดอย่าง NVIDIA Blackwell ชูประสิทธิภาพด้านการอนุมานข้อมูลของ AI (AI Inference)  ขนาดใหญ่ที่เร็วและแรงกว่าเดิม พร้อมชูจุดเด่นเรื่องต้นทุนที่ถูกลงจากชิปรุ่นก่อนหน้าของไมโครซอฟท์ถึง 30%

ชิป Maia 200 คืออะไร ?

Maia 200 คือ ชิปเร่งการประมวลผล AI ที่ออกแบบมาเพื่องานด้านการอนุมานข้อมูล AI (AI Inference) หรือ กระบวนการป้อนข้อมูลให้กับโมเดล AI ที่ได้รับการฝึกฝนแล้ว เพื่อสร้างผลลัพธ์ เช่น รูปภาพ ข้อความ หรือวิดีโอ โดยถูกปรับแต่งมาเพื่อรองรับการคาดการณ์ที่ซับซ้อนให้มีความรวดเร็วและแม่นยำสูงสุดบน Azure หรือ ระบบคลาวด์ของไมโครซอฟท์โดยเฉพาะ

เปิดสเปกขั้นเทพของชิป Maia 200 ท้าชนชิป NVIDIA Blackwell

ชิป Maia 200 ผลิตด้วยเทคโนโลยีล้ำสมัยจาก TSMC ขนาด 3 นาโนเมตร อัดแน่นด้วยทรานซิสเตอร์กว่า 1 แสนล้านตัว ในขณะที่คู่แข่งอย่าง NVIDIA Blackwell B200 ยังคงใช้กระบวนการผลิตระดับ 4 นาโนเมตร (Custom 4NP) ส่งผลให้ Maia 200 มีความได้เปรียบในแง่การจัดการพลังงาน โดยใช้ไฟเพียง 750 วัตต์ ขณะที่ NVIDIA Blackwell B200 อาจพุ่งสูงถึง 1,000 วัตต์ ตามข้อมูลที่ระบุโดยเว็บไซต์ข่าวต่างประเทศ ฮาร์ดแวร์ไทมส์ (https://hardwaretimes.com/nvidia-blackwell-gpu-1000w-power/

Maia 200 รองรับการประมวลผลความละเอียดต่ำ (Low Precision) โดยให้พลังประมวลผลระดับ 4 บิต (FP4) สูงถึง 10 เพตาฟลอปส์ และ 8 บิต (FP8) ที่ประมาณ 5 เพตาฟลอปส์ ซึ่งถึงแม้ว่าในด้านความแรงของพลังประมวลผล NVIDIA Blackwell B200 จะสามารถทำตัวเลขได้สูงถึง 20 เพตาฟลอปส์ แต่ไมโครซอฟท์ได้เสนอแนวทางที่ต่างออกไป โดยมุ่งเน้นไปที่ ประสิทธิภาพการใช้งานจริง (Real-world Efficiency) สำหรับโครงสร้างพื้นฐานของตนเองมากกว่า

โดย Maia 200 มาพร้อมหน่วยความจำ HBM3e ขนาด 216GB ซึ่งมากกว่า NVIDIA Blackwell B200 ที่มีขนาด 192GB ความจุที่เพิ่มขึ้นนี้ช่วยให้ Maia 200 และยังมีหน่วยความจำพักข้อมูลด่วน (SRAM) ขนาด 272MB และระบบเคลื่อนย้านข้อมูล (Data Movement Engine) ที่ช่วยให้โมเดลขนาดใหญ่สามารถรับส่งข้อมูลได้อย่างต่อเนื่อง รวดเร็ว สามารถรันโมเดลขนาดใหญ่ระดับล้านล้านพารามิเตอร์อย่าง GPT-5.2 ได้จบในชิปตัวเดียวได้อย่างไหลลื่นกว่าโดยไม่ต้องแบ่งงานไปชิปอื่นให้เสียเวลา

 นอกจากนี้ ประสิทธิภาพด้านราคาต่อหน่วย (Performance per Dollar) ยังดีกว่าระบบเดิมถึง 30% ทำให้ Maia 200 เป็นระบบ AI Inference ประสิทธิภาพสูงที่สุดที่ไมโครซอฟท์เคยนำมาใช้งาน โดยออกแบบมาให้มีประสิทธิภาพสูงสุดสำหรับบริการของไมโครซอฟท์โดยเฉพาะ

ก้าวต่อไปของชิป Maia 200

ปัจจุบัน ไมโครซอฟท์ได้เริ่มใช้งาน Maia 200 ในโครงสร้างพื้นฐานคลาวด์ทั่วโลกของบริษัท นำร่องโดยทีม Microsoft Superintelligence ที่นำไปใช้สร้างข้อมูลสังเคราะห์และการเรียนรู้แบบเสริมกำลัง เพื่อปรับปรุงโมเดลภายในองค์กร ที่สำคัญ Maia 200 จะถูกใช้ขับเคลื่อนปริมาณงาน AI ใน Microsoft Foundry และ Microsoft 365 Copilot ซึ่งเป็นส่วนหนึ่งของโครงสร้างพื้นฐาน AI ของไมโครซอฟท์ และจะเปิดให้ลูกค้าใช้งานได้อย่างครอบคลุมยิ่งขึ้นในอนาคต 

ทั้งนี้ ไมโครซอฟท์ได้เปิดให้ลงทะเบียนทดลองใช้ Maia SDK สำหรับนักพัฒนา นักวิชาการ และผู้ร่วมโครงการโอเพนซอร์ส (Open Source) เพื่อช่วยให้สามารถปรับแต่งและปรับปรุงโมเดลและปริมาณงานได้อย่างมีประสิทธิภาพ

ควบคู่ไปกับการส่งเสริมการพัฒนา AI โดย Maia SDK หรือ เครื่องมือที่พัฒนาโดยไมโครซอฟท์สำหรับการสร้างและปรับแต่งโมเดล AI ประกอบด้วย Triton Compiler, PyTorch และ Maia Simulator สำหรับผู้สนใจสามารถลงทะเบียนเพื่อทดลองใช้ Maia SDK ได้ที่เว็บไซต์ทางการของไมโครซอฟท์

ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง