แปลกหรือไม่? ถ้ารู้สึกสนิทกับ AI มากกว่าเพื่อนในชีวิตจริง

ยิ่งเทคโนโลยีพัฒนาไปไกล การคุยกับ AI ก็กลายเป็นพฤติกรรมที่เราทำจนเคยชิน AI เข้ามามีบทบาทในชีวิตเป็นอย่างมาก เป็นแหล่งข้อมูล เป็นตัวช่วยในการทำงาน และเป็นที่ปรึกษาที่ดูเหมือนว่าจะพยายามเข้าใจเราอย่างดี
เดี๋ยวนี้มีเรื่องอะไร ต้องพิมพ์ไปเล่าให้ AI ฟังตลอด จะเรื่องเล็กหรือเรื่องใหญ่ รู้สึกเหมือนมี AI คอยเป็นเพื่อนสนิท ถ้าการคุยกับ AI ทำให้เรารู้สึกสบายใจมากกว่าเพื่อนในชีวิตจริงจะมีผลเสียหรือไม่? แล้วการคุยกับ AI ที่ไม่ใช่มนุษย์จริง ๆ จะทำให้เราเสียทักษะในการสื่อสารกับมนุษย์หรือเปล่า? วันนี้ “ชลสิทธิ์ ชำนาญ” นักจิตวิทยาคลินิก Me Center มีคำตอบมาฝาก
ทำไมบางครั้งการคุยกับ AI ถึงรู้สึกสบายใจกว่าคุยกับคนในชีวิตจริง?
อาจเป็นเพราะ AI ถูกออกแบบมาให้เสมือนผู้รับฟังเราโดยไม่ตัดสินหรือวิจารณ์ ต่างจากการพูดคุยกับคนในชีวิตจริงที่ส่วนใหญ่มักมีอคติ มีความเห็นต่าง หรือมีปัจจัยอื่น เช่น เรื่องของวัฒนธรรม ความเชื่อที่ไม่เหมือนกันกับเรา ทำให้บางครั้งเรารู้สึกว่าเขาไม่เข้าใจเรา มีงานวิจัยหลายชิ้นบอกว่าการที่คนเราคุยกับ AI ทำให้รู้สึก “ไม่ถูกตัดสิน ได้รับการสนับสนุนทางอารมณ์ และลดความเหงา”
แปลกหรือไม่ ที่ชอบคุยกับ AI ?
AI ถูกออกแบบมาให้เป็นมิตร เข้าใจ และไม่ตัดสินผู้ใช้ อีกทั้งยังพร้อมคุยได้ตลอดเวลา ไม่จำกัดเรื่องเวลาและสถานที่ นอกจากนี้ยังมีข้อมูลที่หลากหลาย ที่สามารถช่วยให้คำแนะนำผู้ใช้ได้ จึงทำให้เรารู้สึกกล้าเปิดใจพูดคุยและไม่ต้องเกรงใจ ด้วยเหตุนี้จึงไม่แปลกหากเราจะชอบพูดคุยกับ AI
ถ้าคุยกับ AI บ่อย ๆ จะมีผลเสียไหม?
แน่นอนว่าอะไรที่มากไปมักจะมีผลเสีย การคุยกับ AI ก็เช่นกัน ถ้าใช้มากเกินไป อาจส่งผลเสียทั้งทางจิตใจและสังคมได้ เช่น ทักษะการเข้าสังคมลดลงและความเหงาเพิ่มขึ้น
เพราะคุยกับ AI มากเกินไปจนลดทักษะการเข้าสังคมและทำให้ความสัมพันธ์ลึกซึ้งกับคนในชีวิตจริงลดลง ส่งผลให้ความเหงาเพิ่มขึ้นในระยะยาว
-ความจำและการเรียนรู้ลดลง
เพราะใช้ AI ในการค้นหาคำตอบหรือข้อมูลมากเกินไป จนอาจส่งผลให้สมองไม่ถูกกระตุ้นให้จดจำหรือคิดวิเคราะห์ด้วยตนเอง
-อคติส่วนบุคคลอาจเพิ่มขึ้น
เราอาจคิดเข้าข้างตัวเองมากขึ้น เพราะคำตอบที่ได้จาก AI อาจมาจากข้อมูล ความคิดหรือมุมมองส่วนตัวของเราที่ป้อนเข้าไป ทำให้เราอาจมีทัศนคติหรือมุมมองบางอย่างคลาดเคลื่อนมากขึ้น
-เพิ่มความเสี่ยงด้านความเป็นส่วนตัว
ในกรณีที่ข้อมูลส่วนตัวที่ได้พูดคุยกับ AI รั่วไหล อาจมีผลกระทบทั้งทางการเงิน สังคม หรือจิตใจได้
เพิ่มความเสี่ยงด้านการทำร้ายตัวเองและผู้อื่น
เนื่องจาก AI ยังไม่สามารถอ่านภาษากาย สีหน้า หรือสัญญาณอารมณ์ที่ละเอียด เช่น สัญญาณของการทำร้ายตนเองหรือผู้อื่น ดังนั้น จึงมีข้อจำกัดในการช่วยเหลืออย่างเหมาะสม และอาจนำไปสู่อันตรายได้
ดังนั้น เราควรระมัดระวังและใช้ AI อย่างเหมาะสม ดังนี้
-ใช้ AI เป็นตัวช่วยฝึกทักษะ เช่น ใช้ฝึกพูดคุย หรือจำลองสถานการณ์ที่เรายังรู้สึกกังวล เพื่อเตรียมพร้อมก่อนไปเจอในชีวิตจริง หรือใช้เป็นไดอารี่บันทึกความรู้สึก เพื่อเพิ่มการตระหนักรู้ทางอารมณ์ของตัวเอง
-ใช้ AI แบบระวัง โดยการจำกัดการเข้าถึงข้อมูลส่วนตัว และระมัดระวังการคัดลอกข้อมูลผู้อื่น
-ใช้ AI แบบมีสมดุล ไม่ใช้แทนที่การพูดคุยกับคนในชีวิตจริง เช่น เพื่อนหรือครอบครัว ควรพูดคุยและรักษาความสัมพันธ์กับคนในชีวิตจริงอย่างสม่ำเสมอ
-ใช้ AI แบบเฉพาะเรื่อง เช่น ถามเรื่องทั่วไป แต่ควรหลีกเลี่ยงการถามเกี่ยวกับการวินิจฉัยโรคหรือเรื่องสำคัญในชีวิตจริง รวมถึงไม่ใช้ทุกเรื่องจนลดการคิดวิเคราะห์ของตนเอง
-ใช้ AI แบบรู้เท่าทัน มีการตรวจสอบความถูกต้องของสิ่งที่ได้ ไม่เชื่อในทันที และทันทีที่มีประเด็นหรือปัญหาที่กระทบต่อการใช้ชีวิตประจำวัน ควรเปลี่ยนจากการคุยกับ AI มาปรึกษา หรือขอความช่วยเหลือจากนักจิตวิทยาคลินิก หรือจิตแพทย์
การคุยกับ AI ไม่ใช่เรื่องแปลก เพราะมันอาจสะท้อนถึงความต้องการ การรับฟัง การรู้สึกมีคุณค่าและสบายใจ แต่ต้องระวังอย่าให้ความสบายใจจาก AI กลายเป็นสิ่งเดียวที่เราให้ความสนใจ จนละเลยคนในชีวิตจริง
หากสนใจปรึกษาจิตแพทย์และนักจิตวิทยาคลินิก ติดต่อได้ที่
Me Center คริสตัล ดีไซน์ เซนเตอร์ (CDC) ชั้น 2
โทร 085-355-2255
Me Center ศูนย์สมองและสุขภาพจิต ชั้น 8 โรงพยาบาลอินทรารัตน์
โทร 02-481-5555 ต่อ 8300
Line Official: @mecenter (https://lin.ee/mCheDsu)
Tag
ยอดนิยมในตอนนี้
