Apple พบ !? AI อาจจะตอบ “มั่ว” กับคำถามที่ไม่เคยเจอ

ทีมวิจัยของ Apple ออกมารายงานผลสำรวจเกี่ยวกับ AI หรือปัญญาประดิษฐ์แบบคิดก่อนตอบ (Large Reasoning Model - LRM) เผย AI จะตอบ “มั่ว” ถ้าเจอคำถามที่ไม่เคยเจอมาก่อน แปลว่า AI ไม่ได้คิดคำตอบเอง แต่เป็นการจำคำตอบจากแหล่งต่าง ๆ มาตอบ
ปัญญาประดิษฐ์แบบคิดก่อนตอบ หรือ Large Reasoning Model เป็นปัญญาประดิษฐ์ที่สามารถคิดทบทวนก่อนตอบคำถามได้ และเป็นเครื่องมือสำคัญที่ทำให้โมเดลปัญญาประดิษฐ์จำนวนมากทำคะแนนทดสอบได้ดีขึ้น
อย่างไรก็ตามทาง Apple พบว่าปัญญาประดิษฐ์ประเภทนี้ มีแนวโน้มคิดผิดไปจากแนวทางที่ควรเป็น รวมถึงคิดมากเกินไปจนอาจจะแสดงให้เห็นว่า การตอบคำถามของปัญญาประดิษฐ์เหล่านี้อาจจะแค่จำรูปแบบมาเท่านั้น
การวิจัยในครั้งนี้ทาง Apple ได้ทำการทดสอบกับปัญญาประดิษฐ์แบบคิดก่อนตอบหลายตัว ทั้ง OpenAI o1/o3, DeepSeek-R1, Claude 3.7 Thinking, และ Gemini Thinking
ทาง Apple ให้ปัญญาประดิษฐ์เหล่านี้แก้ปัญหาที่สามารถปรับความยากได้อิสระ เช่น Tower of Hanoi (หอคอยแห่งฮานอย) เกมปริศนาคลาสสิกาที่ให้ย้ายห่วงทั้งหมดไปไว้บนเสาเป้าหมายอีกเสาหนึ่ง การทดสอบโจทย์ฝึกเขียนโปรแกรม จากนั้นจึงเข้าไปดู Think Token ว่าโมเดลกำลังคิดอะไรอยู่ เพื่อสำรวจว่าแนวคิดไปถูกทางหรือไม่ แล้วค่อย ๆ สั่งเพิ่มจำนวนห่วงใน Tower of Hanoi เพื่อเพิ่มความยากให้สูงขึ้น
ผลทดสอบพบว่า ที่ระดับปัญหาง่าย ๆ ปัญญาประดิษฐ์เหล่านี้ จะสามารถตอบปัญหาได้ในทันที แถมประหยัดโทเค็นกว่า แต่เมื่อเพิ่มความยากขึ้นไปเรื่อย ๆ แม้ปัญญาประดิษฐ์ จะยังตอบได้ แต่ก็จะเปลืองโทเค็นมากขึ้นเรื่อย ๆ จนถึงความยากระดับหนึ่ง เช่น ระดับแบบ 8 ห่วง ปัญญาประดิษฐ์ก็เริ่มตอบมั่ว ๆ ออกมาอย่างชัดเจน ขณะที่ความคิดยังยาวขึ้นเรื่อย ๆ
ข้อจำกัดของการแก้ปัญหาที่มีรูปแบบชัดเจนเช่นนี้แสดงให้เห็นว่าปัญญาประดิษฐ์แบบคิดก่อนตอบ ยังไม่สามารถมองปัญหาให้อยู่ในรูปทั่วไปได้ เมื่อทีมงานของ Apple ให้แนวคิดแก้ปัญหาที่ถูกต้องไป ตัวปัญญาประดิษฐ์ก็ยังไม่สามารถทำตามได้ แต่ทำได้แค่ขั้นตอนแรก ๆ เท่านั้น
สำหรับงานวิจัยเรื่องนี้เผยแพร่แล้วที่ ml-site.cdn-apple.com
Tag
ยอดนิยมในตอนนี้
