รีเซต

Apple พบ !? AI อาจจะตอบ “มั่ว” กับคำถามที่ไม่เคยเจอ

Apple พบ !? AI อาจจะตอบ “มั่ว”  กับคำถามที่ไม่เคยเจอ
TNN ช่อง16
19 มิถุนายน 2568 ( 17:37 )
15

ทีมวิจัยของ Apple ออกมารายงานผลสำรวจเกี่ยวกับ AI หรือปัญญาประดิษฐ์แบบคิดก่อนตอบ (Large Reasoning Model - LRM) เผย AI จะตอบ “มั่ว” ถ้าเจอคำถามที่ไม่เคยเจอมาก่อน แปลว่า AI ไม่ได้คิดคำตอบเอง แต่เป็นการจำคำตอบจากแหล่งต่าง ๆ มาตอบ

ปัญญาประดิษฐ์แบบคิดก่อนตอบ หรือ Large Reasoning Model เป็นปัญญาประดิษฐ์ที่สามารถคิดทบทวนก่อนตอบคำถามได้ และเป็นเครื่องมือสำคัญที่ทำให้โมเดลปัญญาประดิษฐ์จำนวนมากทำคะแนนทดสอบได้ดีขึ้น

อย่างไรก็ตามทาง Apple พบว่าปัญญาประดิษฐ์ประเภทนี้ มีแนวโน้มคิดผิดไปจากแนวทางที่ควรเป็น รวมถึงคิดมากเกินไปจนอาจจะแสดงให้เห็นว่า การตอบคำถามของปัญญาประดิษฐ์เหล่านี้อาจจะแค่จำรูปแบบมาเท่านั้น

การวิจัยในครั้งนี้ทาง Apple ได้ทำการทดสอบกับปัญญาประดิษฐ์แบบคิดก่อนตอบหลายตัว ทั้ง OpenAI o1/o3, DeepSeek-R1, Claude 3.7 Thinking, และ Gemini Thinking

ทาง Apple ให้ปัญญาประดิษฐ์เหล่านี้แก้ปัญหาที่สามารถปรับความยากได้อิสระ เช่น Tower of Hanoi (หอคอยแห่งฮานอย) เกมปริศนาคลาสสิกาที่ให้ย้ายห่วงทั้งหมดไปไว้บนเสาเป้าหมายอีกเสาหนึ่ง การทดสอบโจทย์ฝึกเขียนโปรแกรม จากนั้นจึงเข้าไปดู Think Token ว่าโมเดลกำลังคิดอะไรอยู่ เพื่อสำรวจว่าแนวคิดไปถูกทางหรือไม่ แล้วค่อย ๆ สั่งเพิ่มจำนวนห่วงใน Tower of Hanoi เพื่อเพิ่มความยากให้สูงขึ้น

ผลทดสอบพบว่า ที่ระดับปัญหาง่าย ๆ ปัญญาประดิษฐ์เหล่านี้ จะสามารถตอบปัญหาได้ในทันที แถมประหยัดโทเค็นกว่า แต่เมื่อเพิ่มความยากขึ้นไปเรื่อย ๆ แม้ปัญญาประดิษฐ์ จะยังตอบได้ แต่ก็จะเปลืองโทเค็นมากขึ้นเรื่อย ๆ จนถึงความยากระดับหนึ่ง เช่น ระดับแบบ 8 ห่วง ปัญญาประดิษฐ์ก็เริ่มตอบมั่ว ๆ ออกมาอย่างชัดเจน ขณะที่ความคิดยังยาวขึ้นเรื่อย ๆ    

ข้อจำกัดของการแก้ปัญหาที่มีรูปแบบชัดเจนเช่นนี้แสดงให้เห็นว่าปัญญาประดิษฐ์แบบคิดก่อนตอบ ยังไม่สามารถมองปัญหาให้อยู่ในรูปทั่วไปได้ เมื่อทีมงานของ Apple ให้แนวคิดแก้ปัญหาที่ถูกต้องไป ตัวปัญญาประดิษฐ์ก็ยังไม่สามารถทำตามได้ แต่ทำได้แค่ขั้นตอนแรก ๆ เท่านั้น

สำหรับงานวิจัยเรื่องนี้เผยแพร่แล้วที่  ml-site.cdn-apple.com

ข่าวที่เกี่ยวข้อง