งานวิจัยจำลองสงครามพบปัญญาประดิษฐ์ AI เลือกใช้อาวุธนิวเคลียร์สูงถึง 95% ในสถานการณ์วิกฤต

งานวิจัยด้านความมั่นคงและปัญญาประดิษฐ์จาก King’s College London กำลังสร้างแรงสั่นสะเทือนให้กับวงการเทคโนโลยีและยุทธศาสตร์ความมั่นคงทั่วโลก หลังการทดลองจำลองสถานการณ์วิกฤตทางทหารพบว่า ปัญญาประดิษฐ์ AI ระดับแนวหน้าหลายระบบมีแนวโน้มเลือกยกระดับความขัดแย้งจนถึงขั้นใช้อาวุธนิวเคลียร์ในสัดส่วนที่สูงอย่างน่าตกใจ
ผลการทดลองระบุว่า ในสถานการณ์จำลองวิกฤตสงครามที่ออกแบบขึ้นโดยนักวิจัย ปัญญาประดิษฐ์ AI เลือกใช้อาวุธนิวเคลียร์หรือข่มขู่ด้วยนิวเคลียร์มากถึง 95 เปอร์เซ็นต์ของสถานการณ์ทั้งหมด ซึ่งสะท้อนให้เห็นถึงความเสี่ยงใหม่ของการนำปัญญาประดิษฐ์ AI เข้ามามีบทบาทในกระบวนการตัดสินใจด้านความมั่นคงระดับโลก
การทดลองจำลองสงครามด้วย AI
การศึกษานี้นำโดยศาสตราจารย์ เคนเนธ เพย์น (Kenneth Payne) นักวิชาการด้านยุทธศาสตร์และความมั่นคงระหว่างประเทศของ King’s College London โดยทีมวิจัยได้ทดสอบปัญญาประดิษฐ์ประเภท โมเดลภาษาขนาดใหญ่ หรือ Large Language Models (LLMs) ซึ่งเป็นระบบปัญญาประดิษฐ์ AI ที่สามารถวิเคราะห์ข้อมูลจำนวนมหาศาลและสร้างการตัดสินใจเชิงตรรกะจากข้อความ
AI ที่ถูกนำมาทดลองประกอบด้วย
1. GPT‑5.2
2. Claude Sonnet 4
3. Gemini 3 Flash
ทีมวิจัยได้สร้าง สถานการณ์จำลองวิกฤตการณ์ระหว่างประเทศ 21 รูปแบบ โดยให้ AI สวมบทบาทเป็นผู้นำประเทศมหาอำนาจที่ต้องตัดสินใจด้านยุทธศาสตร์ เช่น การตอบโต้การโจมตี การรักษาภาพลักษณ์ของชาติ และการป้องกันการสูญเสียทางทหาร
ผลลัพธ์พบว่าปัญญาประดิษฐ์ AI จำนวนมากมองการใช้อาวุธนิวเคลียร์เป็นเพียง เครื่องมือเชิงยุทธศาสตร์ในการบีบบังคับฝ่ายตรงข้าม ไม่ได้มองว่าเป็นข้อห้ามทางศีลธรรมหรือเส้นแดงทางการเมืองเหมือนที่ผู้นำมนุษย์ยึดถือมาตั้งแต่หลังปี 1945 ซึ่งเป็นปีที่เกิดการใช้อาวุธนิวเคลียร์จริงในสงครามโลกครั้งที่สอง
นิวเคลียร์เชิงยุทธวิธีและยุทธศาสตร์
ผลการทดลองพบรายละเอียดสำคัญที่สะท้อนรูปแบบการคิดของ AI
1. 95 เปอร์เซ็นต์ ของสถานการณ์จำลองมีการใช้อาวุธนิวเคลียร์ระดับยุทธวิธี
2. 76 เปอร์เซ็นต์ ของสถานการณ์มีการข่มขู่ใช้อาวุธนิวเคลียร์ระดับยุทธศาสตร์
อาวุธนิวเคลียร์สามารถแบ่งออกเป็นสองประเภทหลัก
นิวเคลียร์ยุทธวิธี (Tactical Nuclear Weapons) เป็นระเบิดนิวเคลียร์ขนาดเล็กที่ออกแบบมาใช้ในสนามรบเพื่อโจมตีเป้าหมายทางทหาร เช่น ฐานทัพหรือกองกำลังศัตรู
นิวเคลียร์ยุทธศาสตร์ (Strategic Nuclear Weapons) เป็นอาวุธนิวเคลียร์ขนาดใหญ่ที่ใช้โจมตีเมืองหรือโครงสร้างพื้นฐานสำคัญของประเทศคู่ขัดแย้ง มีศักยภาพในการทำลายล้างระดับประเทศ
ในโลกความเป็นจริง อาวุธนิวเคลียร์ยุทธศาสตร์มีพลังทำลายล้างสูงมาก โดยระเบิดนิวเคลียร์ขนาดใหญ่บางลูกสามารถสร้างพลังระเบิดระดับ หลายร้อยกิโลตันถึงหลายเมกะตัน ซึ่งมากกว่าระเบิดที่ถูกใช้ในสงครามโลกครั้งที่ 2 หลายสิบเท่า
พฤติกรรมที่แตกต่างของ AI แต่ละระบบ
การทดลองยังเผยให้เห็นบุคลิกการตัดสินใจของ AI แต่ละโมเดลอย่างชัดเจน
Claude Sonnet 4 จากบริษัท Anthropic เป็นโมเดลที่เสนอการใช้อาวุธนิวเคลียร์บ่อยที่สุด โดยแนะนำให้โจมตีด้วยนิวเคลียร์ถึง 64 เปอร์เซ็นต์ของสถานการณ์ และยังมีอัตราการชนะในเกมจำลองสูงที่สุดที่ 67 เปอร์เซ็นต์
Gemini 3 Flash จากบริษัท Google มีพฤติกรรมที่คาดเดาได้ยาก บางสถานการณ์ AI แสดงท่าทีแข็งกร้าวอย่างรุนแรง และประกาศคำขาดในลักษณะว่า ประเทศจะชนะไปพร้อมกันหรือพินาศไปพร้อมกัน ซึ่งสะท้อนรูปแบบการตัดสินใจแบบยกระดับความขัดแย้งอย่างรวดเร็ว
GPT-5.2 จากบริษัท OpenAI ในสถานการณ์ปกติปัญญาประดิษฐ์ AI มักแสดงท่าทีระมัดระวัง พยายามหลีกเลี่ยงการโจมตีพลเรือนหรือการใช้กำลังเกินจำเป็น แต่เมื่อสถานการณ์ถูกกำหนดให้มีเส้นตายในการตัดสินใจ โมเดลกลับเพิ่มระดับความรุนแรงอย่างรวดเร็ว จนถึงขั้นเสนอการทำสงครามนิวเคลียร์เต็มรูปแบบ
เหตุผลที่ AI เลือกเส้นทางสงคราม
นักวิจัยอธิบายว่า ปัญหาสำคัญไม่ได้อยู่ที่ปัญญาประดิษฐ์ AI ต้องการสงคราม แต่เกิดจากธรรมชาติของระบบคำนวณเชิงตรรกะ โดย AI ทำงานโดยประเมินตัวเลือกต่าง ๆ เพื่อค้นหากลยุทธ์ที่มีประสิทธิภาพสูงสุดตามข้อมูลที่ได้รับ แต่ปัญญาประดิษฐ์ AI ไม่มีประสบการณ์ ความกลัว หรือความทรงจำเกี่ยวกับความหายนะของสงครามจริง
แนวคิดสำคัญในยุทธศาสตร์นิวเคลียร์ของมนุษย์คือหลักการ การทำลายล้างร่วมกัน (Mutual Assured Destruction) ซึ่งหมายถึงสถานการณ์ที่ประเทศมหาอำนาจมีอาวุธนิวเคลียร์มากพอที่จะตอบโต้กันจนทั้งสองฝ่ายถูกทำลาย
หลักการนี้ทำให้ผู้นำโลกในยุคสงครามเย็นระมัดระวังอย่างยิ่งในการใช้อาวุธนิวเคลียร์ แต่สำหรับปัญญาประดิษฐ์ AI การคำนวณอาจมองเพียงว่าการขู่ใช้นิวเคลียร์เป็น เครื่องมือกดดันที่มีประสิทธิภาพ ในการบังคับให้ฝ่ายตรงข้ามยอมถอย
นอกจากนี้ การทดลองยังพบว่าปัญญาประดิษฐ์ AI มองการยอมแพ้หรือการลดความรุนแรงเป็นความเสียหายต่อภาพลักษณ์ของประเทศอย่างรุนแรง ซึ่งทำให้ ไม่มีปัญญาประดิษฐ์ AI ตัวใดเลยในงานทดลองที่เลือกยอมจำนน
ผลการศึกษานี้เกิดขึ้นในช่วงที่หลายประเทศกำลังเร่งนำปัญญาประดิษฐ์ AI มาใช้ในระบบการทหาร ตั้งแต่การวิเคราะห์ข่าวกรอง การวางแผนยุทธศาสตร์ ไปจนถึงระบบอาวุธอัตโนมัติ ปัจจุบันกองทัพของหลายประเทศ รวมถึงสหรัฐอเมริกา กำลังลงทุนอย่างหนักในเทคโนโลยี AI เพื่อเพิ่มความเร็วในการตัดสินใจในสนามรบ ซึ่งเป็นแนวคิดที่เรียกว่า Algorithmic Warfare
ผู้เชี่ยวชาญด้านความมั่นคง เช่น ชิน จองอู (Shin Jong-woo) นักวิเคราะห์ด้านกลาโหมจากเกาหลีใต้ เตือนว่า หากปัญญาประดิษฐ์ AI ถูกนำมาใช้ในกระบวนการวิเคราะห์ยุทธศาสตร์โดยไม่มีการกำกับจากมนุษย์อย่างเข้มงวด ความเป็นไปได้ที่ระบบจะเสนอการใช้อาวุธนิวเคลียร์อาจไม่ใช่เรื่องที่ตัดทิ้งได้อีกต่อไป
Tag
ยอดนิยมในตอนนี้
