วันนี้มีเกมหนึ่งที่เพิ่งไปเจอมาในเว็บ itch.io แล้วรู้สึกว่ามัน "จี๊ด" มากจนต้องหยิบมาเล่าให้ฟัง เกมนี้ชื่อว่า "tesla AI Training Tool" ผลงานของ Harrison-B ซึ่งจริงๆ แล้วเป็นโปรเจกต์ส่งอาจารย์ในวิชา Tiny Games ที่มหาวิทยาลัย Colorado Boulder แต่อย่าประมาทคำว่า "เกมส่งอาจารย์" เชียวนะ เพราะสิ่งที่เขานำเสนอมันยิ่งใหญ่ระดับที่ส่งผลต่ออนาคตของมนุษยชาติได้เลย เกมภาพ 8-bit แต่ความเครียดระดับ 8 ริกเตอร์ เพื่อนๆ ลองนึกภาพเกมสมัยก่อนที่เป็น Pixel เล็กๆ เดินดุ๊กดิ๊กไปมาบนหน้าจอ เกมนี้สร้างด้วยเครื่องมือที่ชื่อว่า Bitsy ซึ่งข้อจำกัดคือทำอะไรซับซ้อนไม่ได้มาก แต่ผู้พัฒนาเขากลับใช้ข้อจำกัดนี้มาสร้างความกดดันให้เราแทน โดยให้เราสวมบทบาทเป็น "ระบบ AI" ของรถบรรทุก Tesla Truck ที่กำลังอยู่ในช่วงฝึกฝน โจทย์ของเกมนี้ไม่ใช่การขับรถให้ถึงเส้นชัยโดยเร็วที่สุด แต่คือการตัดสินใจในวินาทีชีวิตที่เรียกว่า "The Trolley Problem" หรือปัญหาทางจริยธรรมของรถที่ว่า "ถ้าต้องเลือกฆ่าคน 1 คนเพื่อรักษาชีวิตคน 5 คน คุณจะทำไหม?" แต่รอบนี้มาในบริบทของรถยนต์ไร้คนขับที่อาจจะวิ่งอยู่หน้าบ้านเราในอนาคตอันใกล้นี้ เมื่อเราต้องรับบทเป็น "พระเจ้า" ในร่างซอฟต์แวร์ ทันทีที่เริ่มเล่น เกมจะพาเพื่อนๆ ไปเจอสถานการณ์ที่ไม่มีคำตอบที่ถูกที่สุด มีแต่คำตอบที่ "สูญเสียน้อยที่สุด" ในมุมมองของเรา เช่น สถานการณ์ A: มีกลุ่มคนชรากำลังเดินข้ามถนนอย่างช้าๆ ถ้าเราพุ่งไปทางนั้นพวกเขาไม่รอดแน่ แต่อีกทางหนึ่งมีเด็กน้อยคนหนึ่งกำลังวิ่งเล่นอยู่... เพื่อนๆ จะหักหลบไปทางไหน? สถานการณ์ B: ทางข้างหน้ามีคนเดินถนนกลุ่มใหญ่มาก ถ้าจะช่วยพวกเขา AI ต้องตัดสินใจหักรถลงข้างทาง ซึ่งนั่นหมายความว่า "ผู้โดยสารในรถ" (ซึ่งก็คือตัวเราหรือเจ้าของรถ) จะต้องจบชีวิตลงแทน ความรู้สึกตอนเล่นจะย้อนแย้งมาก คือในแง่หนึ่งดูเหมือนจะเป็นเกมล้อเลียน (Satire) ที่เอาแบรนด์ดังมาแซวขำๆ แต่ในความขำนั้นมีความเย็นยะเยือกซ่อนอยู่ เพราะทุกครั้งที่เรากดปุ่มทิศทางเพื่อเลือกทางเดิน รถ Pixel คันเล็กๆ ของเราก็จะพุ่งไปทับตัวละครอื่นจนหายไปจากหน้าจอ ทิ้งไว้เพียงข้อความสรุปสั้นๆ ที่ทำให้เราต้องกลับมาถามตัวเองว่า "เราทำสิ่งที่ถูกต้องแล้วจริงเหรอ?" ทำไมเรื่องนี้ถึงไม่ใช่แค่เรื่องเล่นๆ? สิ่งที่อยากชวนเพื่อนๆ คุยต่อหลังจากเล่นเกมนี้จบคือ เรื่อง "อคติของ AI" (AI Bias) เกมนี้สะท้อนให้เห็นว่า จริงๆ แล้ว AI ไม่ได้มีความคิดสร้างสรรค์หรือศีลธรรมเองได้หรอก แต่ทำงานตาม "Code" ที่คนเขียนลงไป ถ้าคนเขียน Code ให้ความสำคัญกับชีวิตคนรวยมากกว่าคนจน ชีวิตคนหนุ่มสาวมากกว่าคนชรา หรือชีวิตมนุษย์มากกว่าสัตว์ โลกในอนาคตที่คุมด้วย AI จะน่ากลัวขนาดไหน? เกมนี้บีบให้เราเห็นภาพว่า ในวินาทีที่เกิดอุบัติเหตุ ไม่มีเวลามานั่งทำโพลล์ถามความเห็นใคร แต่คือการตัดสินใจในหลักมิลลิวินาทีที่ถูกโปรแกรมไว้ล่วงหน้าแล้ว บทสรุป: สั้นแต่สั่นสะเทือนถึงข้างใน Tesla AI Training Tool เป็นเกมที่เล่นจบได้ในเวลาไม่ถึง 10 นาที (ถ้าไม่นั่งคิดนานนะ!) แต่จะทิ้งคำถามไว้ในหัวเพื่อนๆ นานเป็นวันเลยล่ะ ไม่ใช่ความท้าทายที่นิ้วมือ แต่เป็นความท้าทายที่มโนธรรมในใจ ทำให้เราตระหนักได้ว่า ในขณะที่เรากำลังเห่อเทคโนโลยีใหม่ๆ เราลืมเตรียมตัวรับมือกับคำถามทางจริยธรรมที่มาพร้อมกับมันหรือเปล่า? สุดท้ายแล้วเราอยากให้โลกในอนาคตตัดสินใจด้วยความเย็นชาของอัลกอริทึม หรือเรายังต้องการความเห็นอกเห็นใจของมนุษย์อยู่? ถ้าเพื่อนๆ คนไหนอยากลองเช็กเลเวลศีลธรรมของตัวเอง หรืออยากหาประเด็นไปถกกับกลุ่มเพื่อนตอนนั่งกินกาแฟ ลองไปเล่นดูได้ที่นี่เลย harrison-b.itch.io/tesla-ai-training-tool แล้วมาแชร์กันหน่อยนะว่าในสถานการณ์ "สละชีพเจ้าของรถเพื่อช่วยคนเดินถนน" เพื่อนๆ เลือกอะไรกัน? ภาพประกอบทั้งหมดโดยผู้เขียน เปิดประสบการณ์ความบันเทิงที่หลากหลายสุดปัง บน App TrueID โหลดเลย ฟรี !