รีเซต

เพราะอะไรถามคำถาม AI แล้วได้คำตอบผิด ๆ ในบางครั้ง

เพราะอะไรถามคำถาม AI แล้วได้คำตอบผิด ๆ ในบางครั้ง
แบไต๋
25 กุมภาพันธ์ 2566 ( 10:16 )
76
เพราะอะไรถามคำถาม AI แล้วได้คำตอบผิด ๆ ในบางครั้ง

จากการเปิดตัวเสิร์ชเอ็นจิน Bing เวอร์ชันใหม่ล่าสุดของ Microsoft ในต้นเดือนกุมภาพันธ์ที่ผ่านมา สิ่งที่มีความแตกต่างจากเสิร์ชเอ็นจินเจ้าอื่น ๆ ในตลาดคือ มีระบบแชตบอตที่สามารถให้คำตอบที่บรรยายเป็นคำพูดพร้อมกับความชัดเจน และกระชับเข้าใจได้อย่างง่ายยิ่งขึ้น

แต่หลังจากเปิดให้ใช้งานแชทบอทผู้ใช้ก็ได้สังเกตเห็นบางสิ่งบางอย่างที่แชทบอทยังให้คำตอบที่ไม่ถูกต้องที่ส่งผลให้ผู้ใช้งานเข้าใจผิดได้

เพื่อทำความเข้าใจทั้งหมดว่ามันเกิดอะไรขึ้น เราก็ต้องมารู้ว่าหลักการทำงานของแชตบอตมันทำงานได้อย่างไรเสียก่อน

1. เรานับว่าแชตบอต AI ทั้งหลายมีชีวิตหรือไม่ ?

คำตอบก็คือ ไม่มีชีวิต

ก็ดูแล้วเมื่อเราได้ถามคำถามไปยังแชตบอต แล้วรูปประโยคที่แชตบอตให้คำตอบออกมาก็ดูมีชีวิตเหมือนกับมนุษย์ตอบกลับมา สิ่งที่แชตบอตทำงานได้เพราะมีการขับเคลื่อนด้วยปัญญาประดิษฐ์ประเภทหนึ่งที่เรียกว่า โครงประสาทเทียม หรือ Neural Network ที่ฟังดูแล้วก็เหมือนสมองคอมพิวเตอร์ แต่คำนี้แหละที่ทำให้คนเข้าใจผิดไปกันใหญ่

โครงสร้างประสาทเทียม หรือ Nerual Network เป็นระบบคณิตศาสตร์ที่มีการเรียนรู้ทักษะจากการได้รับข้อมูลดิจิทัลที่มีการป้อนข้อมูลอยู่ตลอดเวลา

ในชีวิตประจำวันมนุษย์มีการใช้งานโครงข่ายประสาทเทียมอยู่ทุกวันโดยที่ไม่รู้ตัวเช่น เทคโนโลยีระบุตัวบุคคล, สัตว์ และสิ่งของที่อยู่ใน Google Photos, ผู้ช่วยคำสั่งเสียง Siri และ Alexa ที่สามารถจำแนกแยกคำพูดเสียงของผู้ใช้ได้ และความสามารถในการแปลภาษาเป็นอีกหนึ่งภาษาใน Google Translate

2. วิธีการอะไรล่ะที่บริษัทเทคต่าง ๆ สามารถสร้างโครงสร้างประสาทเทียมเลียนแบบภาษาของมนุษย์ได้ ?

โครงสร้างประสาทเทียมนี้ก็สามารถเรียกได้อีกชื่อว่า โมเดลภาษาขนาดใหญ่ ที่มีการป้อนข้อมูลไปจำนวนมากตามแต่ละประเภทที่ต้องการให้โมเดลแต่ละตัวมีความเก่งในด้านนั้น ๆ และเพื่อสร้างแผนที่ข้อมูลในรูปคณิตศาสตร์

ตัวอย่างของโมเดลภาษาที่มีการใช้งานจริงในปัจจุบันเช่น โมเดลภาษาของเครื่องมือ GitHub Copilot ที่สามารถให้คำแนะนำโปรแกรมเมอร์ในการเขียนโค้ด และ ChatGPT แชตบอตจากบริษัทสตาร์ทอัปทางด้านปัญญาประดิษฐ์ OpenAI ที่สามารถให้คำแนะนำ และคำตอบโดยเรียนรู้จากข้อมูลทางดิจิทัลที่รวบรวมจากหนังสือ, บทความในวิกิพีเดีย และข้อมูลการสนทนาคำพูด

สิ่งที่บริษัทเทคโนโลยีอื่น ๆ ที่กำลังนำเสนอออกมาที่มีความใกล้เคียงกันเช่น โมเดลสร้างเอกสารทางการตลาด, เขียนอีเมล และสร้างข้อความ เรียกโดยรวมว่า Generative A.I.

แต่หลังจากการเปิดตัว ChatGPT ที่ให้คนทั่วไปสามารถใช้งานได้ตั้งแต่เดือนพฤศจิกายนปีที่ผ่านมา ก็ได้เสียงตอบรับที่ดีที่สามารถเขียนบทความวิทยานิพนธ์ และบทกวีออกมาได้อย่างน่าอัศจรรย์ แต่ก็มีรายงานออกมาเรื่องของการให้ผลลัพธ์คำตอบที่ไม่ถูกต้อง

3. แล้วเพราะอะไรที่ถามคำถามไปให้แชตบอตแล้วได้คำตอบผิด ๆ ในบางครั้ง ?

ในการสร้างโมเดลออกมาหนึ่งตัวก็มีการเรียนรู้ข้อมูลจากอินเทอร์เน็ต แล้วข้อมูลที่ได้รับมาก็มีทั้งข้อมูลเท็จ และข้อมูลขยะที่ผสมปนเป นี่แหละคือเหตุผลง่าย ๆ ที่ในบางครั้งที่ถามคำถามเข้าไปแล้วได้รับคำตอบที่ผิด ๆ กลับมา

4. แล้วบริษัทเทคโนโลยีจะมีวิธีการหยุดทำตัวแปลก ๆ และให้คำตอบผิด ๆ ของแชตบอตได้หรือไม่ ?

คำตอบคือ พวกเขากำลังพยายามอยู่

เหตุผลที่กำลังพยายามอยู่คือ OpenAI กำลังทดสอบในระบบปิดที่ใช้ระบบการให้คะแนนความถูกต้อง หลังจากนั้นจะรวบรวมคะแนนที่ได้รับมานำไปฝึกฝนระบบแชตบอต และกำหนดสิ่งต่าง ๆ ที่แชตบอตควรจะต้องทำ หรือไม่ควรทำให้รอบคอบมากยิ่งขึ้น

ถึงวิธีการแก้ไขดังกล่าวจะยังไม่สามารถนำไปสร้างแชตบอตที่มีความสมบูรณ์แบบได้ แต่ก็สามารถจำกัดความไม่ถูกต้อง และความแปลกประหลาดออกมาได้ วิธีการหนึ่งที่สามารถควบคุมพฤติกรรมแปลก ๆ คือทำให้แชตบอตโต้ตอบข้อความให้สั้นลง

ที่มา The New York Times

พิสูจน์อักษร : สุชยา เกษจำรัส

ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง