รีเซต

แปลกหรือไม่? ถ้ารู้สึกสนิทกับ AI มากกว่าเพื่อนในชีวิตจริง

แปลกหรือไม่? ถ้ารู้สึกสนิทกับ AI มากกว่าเพื่อนในชีวิตจริง
TNN ช่อง16
10 กันยายน 2568 ( 15:49 )
11

ยิ่งเทคโนโลยีพัฒนาไปไกล การคุยกับ AI ก็กลายเป็นพฤติกรรมที่เราทำจนเคยชิน AI เข้ามามีบทบาทในชีวิตเป็นอย่างมาก เป็นแหล่งข้อมูล เป็นตัวช่วยในการทำงาน และเป็นที่ปรึกษาที่ดูเหมือนว่าจะพยายามเข้าใจเราอย่างดี


เดี๋ยวนี้มีเรื่องอะไร ต้องพิมพ์ไปเล่าให้ AI ฟังตลอด จะเรื่องเล็กหรือเรื่องใหญ่ รู้สึกเหมือนมี AI คอยเป็นเพื่อนสนิท ถ้าการคุยกับ AI ทำให้เรารู้สึกสบายใจมากกว่าเพื่อนในชีวิตจริงจะมีผลเสียหรือไม่? แล้วการคุยกับ AI ที่ไม่ใช่มนุษย์จริง ๆ จะทำให้เราเสียทักษะในการสื่อสารกับมนุษย์หรือเปล่า? วันนี้ “ชลสิทธิ์ ชำนาญ” นักจิตวิทยาคลินิก Me Center มีคำตอบมาฝาก


ทำไมบางครั้งการคุยกับ AI ถึงรู้สึกสบายใจกว่าคุยกับคนในชีวิตจริง?

อาจเป็นเพราะ AI ถูกออกแบบมาให้เสมือนผู้รับฟังเราโดยไม่ตัดสินหรือวิจารณ์ ต่างจากการพูดคุยกับคนในชีวิตจริงที่ส่วนใหญ่มักมีอคติ มีความเห็นต่าง หรือมีปัจจัยอื่น เช่น เรื่องของวัฒนธรรม ความเชื่อที่ไม่เหมือนกันกับเรา ทำให้บางครั้งเรารู้สึกว่าเขาไม่เข้าใจเรา มีงานวิจัยหลายชิ้นบอกว่าการที่คนเราคุยกับ AI ทำให้รู้สึก “ไม่ถูกตัดสิน ได้รับการสนับสนุนทางอารมณ์ และลดความเหงา”


แปลกหรือไม่ ที่ชอบคุยกับ AI ?

AI ถูกออกแบบมาให้เป็นมิตร เข้าใจ และไม่ตัดสินผู้ใช้ อีกทั้งยังพร้อมคุยได้ตลอดเวลา ไม่จำกัดเรื่องเวลาและสถานที่ นอกจากนี้ยังมีข้อมูลที่หลากหลาย ที่สามารถช่วยให้คำแนะนำผู้ใช้ได้ จึงทำให้เรารู้สึกกล้าเปิดใจพูดคุยและไม่ต้องเกรงใจ ด้วยเหตุนี้จึงไม่แปลกหากเราจะชอบพูดคุยกับ AI


ถ้าคุยกับ AI บ่อย ๆ จะมีผลเสียไหม?

แน่นอนว่าอะไรที่มากไปมักจะมีผลเสีย การคุยกับ AI ก็เช่นกัน ถ้าใช้มากเกินไป อาจส่งผลเสียทั้งทางจิตใจและสังคมได้ เช่น ทักษะการเข้าสังคมลดลงและความเหงาเพิ่มขึ้น 

เพราะคุยกับ AI มากเกินไปจนลดทักษะการเข้าสังคมและทำให้ความสัมพันธ์ลึกซึ้งกับคนในชีวิตจริงลดลง ส่งผลให้ความเหงาเพิ่มขึ้นในระยะยาว

-ความจำและการเรียนรู้ลดลง 

เพราะใช้ AI ในการค้นหาคำตอบหรือข้อมูลมากเกินไป จนอาจส่งผลให้สมองไม่ถูกกระตุ้นให้จดจำหรือคิดวิเคราะห์ด้วยตนเอง


-อคติส่วนบุคคลอาจเพิ่มขึ้น 

เราอาจคิดเข้าข้างตัวเองมากขึ้น เพราะคำตอบที่ได้จาก AI อาจมาจากข้อมูล ความคิดหรือมุมมองส่วนตัวของเราที่ป้อนเข้าไป ทำให้เราอาจมีทัศนคติหรือมุมมองบางอย่างคลาดเคลื่อนมากขึ้น


-เพิ่มความเสี่ยงด้านความเป็นส่วนตัว 

ในกรณีที่ข้อมูลส่วนตัวที่ได้พูดคุยกับ AI รั่วไหล อาจมีผลกระทบทั้งทางการเงิน สังคม หรือจิตใจได้

เพิ่มความเสี่ยงด้านการทำร้ายตัวเองและผู้อื่น

เนื่องจาก AI ยังไม่สามารถอ่านภาษากาย สีหน้า หรือสัญญาณอารมณ์ที่ละเอียด เช่น สัญญาณของการทำร้ายตนเองหรือผู้อื่น ดังนั้น จึงมีข้อจำกัดในการช่วยเหลืออย่างเหมาะสม และอาจนำไปสู่อันตรายได้

ดังนั้น เราควรระมัดระวังและใช้ AI อย่างเหมาะสม ดังนี้

-ใช้ AI เป็นตัวช่วยฝึกทักษะ เช่น ใช้ฝึกพูดคุย หรือจำลองสถานการณ์ที่เรายังรู้สึกกังวล เพื่อเตรียมพร้อมก่อนไปเจอในชีวิตจริง หรือใช้เป็นไดอารี่บันทึกความรู้สึก เพื่อเพิ่มการตระหนักรู้ทางอารมณ์ของตัวเอง

-ใช้ AI แบบระวัง โดยการจำกัดการเข้าถึงข้อมูลส่วนตัว และระมัดระวังการคัดลอกข้อมูลผู้อื่น

-ใช้ AI แบบมีสมดุล ไม่ใช้แทนที่การพูดคุยกับคนในชีวิตจริง เช่น เพื่อนหรือครอบครัว ควรพูดคุยและรักษาความสัมพันธ์กับคนในชีวิตจริงอย่างสม่ำเสมอ

-ใช้ AI แบบเฉพาะเรื่อง เช่น ถามเรื่องทั่วไป แต่ควรหลีกเลี่ยงการถามเกี่ยวกับการวินิจฉัยโรคหรือเรื่องสำคัญในชีวิตจริง รวมถึงไม่ใช้ทุกเรื่องจนลดการคิดวิเคราะห์ของตนเอง

-ใช้ AI แบบรู้เท่าทัน มีการตรวจสอบความถูกต้องของสิ่งที่ได้ ไม่เชื่อในทันที และทันทีที่มีประเด็นหรือปัญหาที่กระทบต่อการใช้ชีวิตประจำวัน ควรเปลี่ยนจากการคุยกับ AI มาปรึกษา หรือขอความช่วยเหลือจากนักจิตวิทยาคลินิก หรือจิตแพทย์


การคุยกับ AI ไม่ใช่เรื่องแปลก เพราะมันอาจสะท้อนถึงความต้องการ การรับฟัง การรู้สึกมีคุณค่าและสบายใจ แต่ต้องระวังอย่าให้ความสบายใจจาก AI กลายเป็นสิ่งเดียวที่เราให้ความสนใจ จนละเลยคนในชีวิตจริง 


หากสนใจปรึกษาจิตแพทย์และนักจิตวิทยาคลินิก ติดต่อได้ที่

Me Center คริสตัล ดีไซน์ เซนเตอร์ (CDC) ชั้น 2 

โทร 085-355-2255

Me Center ศูนย์สมองและสุขภาพจิต ชั้น 8 โรงพยาบาลอินทรารัตน์ 

โทร 02-481-5555 ต่อ 8300

Line Official: @mecenter (https://lin.ee/mCheDsu)

ข่าวที่เกี่ยวข้อง