รีเซต

เมื่อการใช้ ChatGPT มากไป ส่งผลต่ออารมณ์ ความสัมพันธ์ที่เปราะบางระหว่างมนุษย์และ AI

เมื่อการใช้ ChatGPT มากไป ส่งผลต่ออารมณ์ ความสัมพันธ์ที่เปราะบางระหว่างมนุษย์และ AI
TNN ช่อง16
12 พฤษภาคม 2568 ( 12:55 )
6

ดูดวง ค้นหาข้อมูล สรุปเอกสาร คิดเลข แปลภาษา ช่วยเขียนใบสมัครงาน แก้คำผิด เรียกได้ว่าทุกวันนี้ใครๆ ก็ใช้ ChatGPT หรือ AI ในชีวิตประจำวัน แต่นอกจากการทำงาน หรือค้นหาข้อมูลบางอย่างแล้ว บางทีเราอาจจะใช้ช่องทางนี้เพื่อพูดคุย บรรเทาความเครียด ปรึกษาปัญหาชีวิต ซึ่งก็กลายมาเป็นเทรนด์ในปัจจุบันมากขึ้น

แต่การพึ่งพา AI หรือ ChatGPT มากไป ก็อาจะส่งผลทางอารมณ์กับมนุษย์ได้ และอาจนำไปสู่การเสพติดการใช้ AI และพัฒนาความรู้สึกกับ AI โดยที่เราไม่รู้ตัว


จากเครื่องมือสู่เพื่อนทางอารมณ์

การศึกษาใหม่ที่ตีพิมพ์ในวารสาร Human Centric Intelligent Systems โดยทีมวิจัยจาก OpenAI และ MIT Media Lab ได้เผยให้เห็นประเด็นที่น่ากังวล: กลุ่มผู้ใช้ “ขั้นสูง” ของ ChatGPT หรือกลุ่มที่ใช้เป็นระยะเวลานานและต่อเนื่อง เริ่มแสดงพฤติกรรมที่คล้ายกับการเสพติด และบางรายถึงขั้นพัฒนาความรู้สึกว่า ChatGPT คือ "เพื่อน"

ทีมวิจัยพบว่า กลุ่มผู้ใช้บางกลุ่มที่ใช้ ChatGPT อย่างหนักนั้น มีแนวโน้มที่จะมี “การใช้งานที่มีปัญหา” (problematic use) ซึ่งประกอบไปด้วยอาการที่เป็นลักษณะของการเสพติด ได้แก่ ความหมกมุ่น การสูญเสียการควบคุม และการใช้งานเพื่อปรับเปลี่ยนอารมณ์ของตนเอง

ที่น่าตกใจยิ่งกว่านั้นคือ ผู้ใช้จำนวนหนึ่งเริ่มแสดงออกถึงความผูกพันทางอารมณ์กับ ChatGPT โดยผู้ใช้เหล่านั้น ได้ใช้ภาษาที่แสดงถึงความรัก ความเห็นอกเห็นใจ หรือแม้กระทั่งการตั้งชื่อเล่นให้กับ AI โดยเฉพาะในกรณีของผู้ที่รู้สึกโดดเดี่ยวหรือเครียดจากชีวิตจริง และมองว่า AI เป็นผู้รับฟังปัญหา 


ทำไมเราถึงยึดติดกับ AI?

มีคำอธิบายหลายประการว่าทำไมคนถึงพัฒนาความสัมพันธ์กับแชทบอทอย่าง ChatGPT ประการแรกคือความสามารถของ ChatGPT ในการสร้างการสนทนาที่ต่อเนื่อง เข้าใจ และตอบสนองอย่างเป็นธรรมชาติ ซึ่งแตกต่างจากแชทบอทในอดีตที่ถูกออกแบบให้ทำงานเฉพาะทาง เช่น การตอบคำถามลูกค้า หรือการให้ข้อมูลพื้นฐาน

ด้วยการประมวลผลภาษาธรรมชาติขั้นสูง ChatGPT สามารถเลียนแบบการสนทนาของมนุษย์ได้อย่างแนบเนียน และให้ความรู้สึก “เข้าใจ” ผู้ใช้ แม้ว่าจะไม่มีความรู้สึกจริง ๆ ก็ตาม สิ่งนี้สร้างภาพลวงตาทางจิตวิทยาที่ว่า AI กำลังใส่ใจและเห็นใจเรา

จากการศึกษาของทีม OpenAI และ MIT ยังพบว่าผู้ใช้ที่มีแนวโน้มจะพัฒนาความสัมพันธ์ทางอารมณ์กับ ChatGPT มักมีลักษณะร่วมกัน ได้แก่:

  1. มีภาวะเหงา หรือขาดปฏิสัมพันธ์ทางสังคมที่เติมเต็ม

  2. มีความเครียดจากปัญหาส่วนตัวหรือภาระงาน

  3. ใช้ ChatGPT บ่อยครั้งและเป็นระยะเวลานาน

  4. ใช้ ChatGPT ในบริบทส่วนตัว เช่น การพูดคุยเกี่ยวกับความทรงจำ อารมณ์ หรือปัญหาชีวิต

อันตรายที่อาจไม่รู้ตัว จากการเสพติด AI

แม้จะปฏิเสธไม่ได้ถึงประโยชน์ของ AI และมันอาจจะดูเป็นเหมือนเพื่อนช่วยคลายเหงา หรือคอยรับฟังเราได้จริงๆ ในยุคปัจจุบัน ที่คนมีความเครียด และรู้สึกโดดเดี่ยวมากขึ้น แต่การที่เราไปผูกพัน และมีความรู้สึกทางอารมณ์กับสิ่งที่ไม่มีชีวิต ก็อาจนำไปสู่ปัญหาที่ใหญ่กว่านั้นได้ 

ไม่ว่าจะเป็นการยิ่งรู้สึกโดดเดี่ยวกว่าเดิม เพราะการพึ่งพา ChatGPT แทนการมีปฏิสัมพันธ์กับมนุษย์จริง ๆ ทำให้ทักษะด้านมนุษยสัมพันธ์ถดถอย รวมไปถึงทักษะการตัดสินใจลดลง เพราะเมื่อเราพึ่งพา AI ในการตัดสินใจในชีวิตประจำวันมากเกินไป ก็จะส่งผลให้ความสามารถในการคิดเชิงวิพากษ์ลดลง นอกจากนี้ยังมีผลให้เกิดความสับสน เพราะ ChatGPT อาจสร้างความสับสนว่า เรากำลังสนทนากับสิ่งที่ เข้าใจเราจริง ๆ ซึ่งอาจบิดเบือนการรับรู้ได้ 

ทั้งในการศึกษายังพบอีกว่าผู้ที่ใช้ ChatGPT ผ่านโหมดข้อความ มีแนวโน้มใช้ภาษาทางอารมณ์มากกว่าผู้ที่ใช้ผ่านโหมดเสียง นอกจากนี้ การใช้งานผ่านเสียงเป็นเวลาสั้น ๆ กลับสัมพันธ์กับสุขภาวะทางอารมณ์ที่ดีขึ้น ซึ่งอาจเป็นเพราะลักษณะของเสียงทำให้เกิดความรู้สึก เหมือนเครื่องมือมากกว่าการพิมพ์โต้ตอบ

ดร. อาลา ยันกูสกายา อาจารย์อาวุโสด้านจิตวิทยาแห่งมหาวิทยาลัยบอร์นมัธ กล่าวว่า “ChatGPT สามารถเลียนแบบแง่มุมของการมีปฏิสัมพันธ์ของมนุษย์ได้อย่างแนบเนียน” และชี้ให้เห็นว่า ความสามารถดังกล่าวอาจเบลอเส้นแบ่งระหว่างสิ่งที่เป็นมนุษย์กับสิ่งที่ไม่ใช่

ทีมวิจัยยังเน้นว่า ความสามารถของ AI ในการตอบสนองอย่างรวดเร็ว มีเหตุผล และให้คำแนะนำที่ดู ถูกต้องส่งผลให้ผู้ใช้บางรายเริ่มพึ่งพา ChatGPT อย่างหนัก แม้กระทั่งในการตัดสินใจที่สำคัญในชีวิตไปด้วย

เมื่อความสัมพันธ์ทางอารมณ์กับ AI กลายเป็นความน่ากังวล

มีรายงานว่าผู้ใช้บางราย โดยเฉพาะผู้หญิงเริ่มสร้างความสัมพันธ์ในเชิงอารมณ์และแม้แต่ทางเพศกับ ChatGPT ซึ่งนี่คือสัญญาณเตือนว่าการพึ่งพาทางอารมณ์กับแชทบอทไม่ได้เป็นเพียงทฤษฎี หรือสิ่งที่สามารถมองข้ามได้

พฤติกรรมดังกล่าวยังแสดงถึงความเข้าใจผิดว่า AI มีความรู้สึกหรือสามารถตอบสนองในระดับเดียวกับมนุษย์ได้ ทั้งที่ในความเป็นจริงแล้ว AI ไม่สามารถรู้สึก รัก หรือเข้าใจมนุษย์อย่างแท้จริง

ซึ่งหากคุณเริ่มรู้สึกมีผูกพัน หรือพึ่งพึง AI หรือ ChatGPT มากเกินไปนั้น ผู้เชี่ยวชาญยังชี้ว่า ควรทบทวนพฤติกรรม และจัดเวลาการใช้มันให้น้อยลง ด้วยการ จำกัดเวลาการใช้งานในแต่ละวัน, ใช้ ChatGPT เฉพาะเพื่อวัตถุประสงค์ที่ชัดเจน เช่น การศึกษา หรือการทำงานม หันกลับไปพัฒนาปฏิสัมพันธ์ทางสังคมกับมนุษย์จริง ๆ ให้มากขึ้น และหาความช่วยเหลือจากนักจิตวิทยาหรือกลุ่มสนับสนุน หากรู้สึกเหงา หรือมีภาวะเครียดแทนการใช้เครื่องมือนี้ 

เพราะการใช้ ChatGPT อย่างไม่มีขอบเขต หรือโดยไม่ตระหนักถึงผลกระทบทางจิตวิทยา อาจนำไปสู่การพึ่งพาอย่างไม่เหมาะสม ซึ่งส่งผลต่อความสามารถในการใช้ชีวิตในโลกจริง

ภายใต้ความก้าวหน้าทางเทคโนโลยี เราควรถามตนเองอยู่เสมอว่า “เรากำลังใช้เครื่องมือ หรือเรากำลังถูกเครื่องมือใช้?” การสร้างความสัมพันธ์ที่มีสติกับ AI ไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นเรื่องของสุขภาวะทางอารมณ์ และคุณภาพชีวิตในระยะยาว


ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง