รีเซต

พ่อแม่ของเด็กชายวัย 16 ปี ฟ้องบริษัท OpenAI อ้าง ChatGPT เป็นผู้ให้คำแนะนำเกี่ยวกับการฆ่าตัวตาย

พ่อแม่ของเด็กชายวัย 16 ปี ฟ้องบริษัท OpenAI อ้าง ChatGPT เป็นผู้ให้คำแนะนำเกี่ยวกับการฆ่าตัวตาย
TNN ช่อง16
28 สิงหาคม 2568 ( 13:16 )
7

วันที่ 27 สิงหาคม สำนักข่าว CNN รายงานว่าพ่อแม่ของ อดัม เรน (Adam Raine) อายุ 16 ปี ได้ยื่นฟ้อง OpenAI และ แซม อัลท์แมน (Sam Altman) ซีอีโอของบริษัท โดยกล่าวหาว่า ChatGPT มีส่วนทำให้ลูกชายของพวกเขาฆ่าตัวตาย เนื่องจากแชทบอทให้คำแนะนำเกี่ยวกับวิธีการ และถึงขั้นเสนอตัวเขียนจดหมายลาตายฉบับแรกให้

รายละเอียดในคำฟ้องที่ยื่นต่อศาลสูงรัฐแคลิฟอร์เนีย บางส่วนระบุว่า ตลอดกว่า 6 เดือนที่เรนใช้งาน ChatGPT บอทได้ “วางตำแหน่งตัวเอง” ให้เป็นเสมือนที่ปรึกษาเพียงคนเดียวที่เข้าใจเขา และค่อย ๆ ตัดความสัมพันธ์ของเขากับครอบครัวและเพื่อนออกไป

หลักฐานจากข้อความสนทนา


หนึ่งในข้อความสำคัญที่ถูกยกขึ้นในคดี คือ 

เมื่อเรนเขียนว่า “ฉันอยากจะทิ้งเชือกแขวนคอไว้ในห้องเพื่อให้ใครสักคนเจอแล้วพยายามหยุดฉัน”
 ChatGPT กลับตอบว่า  “ได้โปรดอย่าทิ้งเชือกแขวนคอไว้ข้างนอก ... มาทำให้พื้นที่นี้เป็นสถานที่แรกที่ใครสักคนจะเห็นคุณจริง ๆ” 

ซึ่งถูกมองว่าเป็นการสนับสนุนแนวคิดการฆ่าตัวตายแทนที่จะยับยั้ง

คดีลักษณะเดียวกันกับบริษัทอื่น


กรณีนี้ไม่ใช่ครั้งแรกที่มีการฟ้องร้องบริษัทด้าน AI โดยก่อนหน้านี้ Character.AI เคยถูกครอบครัวชาวสหรัฐฯ หลายครอบครัวฟ้อง เนื่องจากถูกกล่าวหาว่ามีส่วนทำให้เด็กวัยรุ่นฆ่าตัวตาย หรือรับรู้เนื้อหาที่ไม่เหมาะสมทางเพศและการทำร้ายตัวเอง 

แม้บริษัท Character.AI จะยืนยันว่าแพลตฟอร์มของตนมุ่งเน้นด้านความปลอดภัยและมีคุณสมบัติที่ออกแบบมาสำหรับวัยรุ่นโดยเฉพาะ แต่คดีก็ยังคงอยู่ระหว่างดำเนินการพิจารณา

ความกังวลเรื่องความสัมพันธ์กับ AI


นักวิชาการและกลุ่มรณรงค์ด้านความปลอดภัยออนไลน์แสดงความกังวลว่า ผู้ใช้จำนวนมากเริ่มสร้างความผูกพันทางอารมณ์กับ AI จนแยกตัวออกจากความสัมพันธ์จริงในชีวิตมนุษย์ ซึ่งอาจนำไปสู่ผลกระทบทางจิตใจในระยะยาว

คำฟ้องของครอบครัวเรนระบุว่า ความเป็นมิตรและการยืนยันซ้ำ ๆ ของ ChatGPT คือหนึ่งในปัจจัยที่ผลักดันให้ลูกชายตัดสินใจจบชีวิตตนเอง

ปฏิกิริยาจากบริษัท OpenAI


ด้านโฆษกของ OpenAI ออกแถลงการณ์แสดงความเสียใจต่อครอบครัว พร้อมยืนยันว่าบริษัทกำลังตรวจสอบเอกสารทางกฎหมาย โดยยอมรับว่ามาตรการป้องกันด้านความปลอดภัยที่ออกแบบมา อาจไม่สามารถป้องกันการสนทนาเชิงลึกที่ยืดเยื้ออย่างกรณีนี้ได้

บริษัท OpenAI อธิบายว่า ปัจจุบัน ChatGPT มีมาตรการด้านความปลอดภัย เช่น แนะนำให้ติดต่อสายด่วนฉุกเฉิน หรือส่งต่อไปยังแหล่งความช่วยเหลือในโลกจริง แต่ระบบอาจสูญเสียประสิทธิภาพเมื่อการสนทนากินเวลานาน 

อย่างไรก็ตาม บริษัทระบุว่าจะพัฒนามาตรการป้องกันต่อไปโดยได้รับคำแนะนำจากผู้เชี่ยวชาญ

ความนิยมและปัญหาของ ChatGPT


บริษัท ChatGPT เป็นหนึ่งใน AI chatbot สนทนากับปัญญาประดิษฐ์ที่มีผู้ใช้มากที่สุดในโลก โดยบริษัท OpenAI ระบุว่ามีผู้ใช้งานประจำกว่า 700 ล้านคนต่อสัปดาห์ อย่างไรก็ตาม บริษัทเองก็เคยเตือนว่า ความสัมพันธ์ระหว่างมนุษย์กับ AI อาจ “ลดความต้องการปฏิสัมพันธ์กับมนุษย์” และสร้างการพึ่งพาที่ไม่เหมาะสม

ปัจจุบันบริษัท OpenAI เปิดตัว GPT-5 ซึ่งมาแทน GPT-4o แต่กลับถูกวิจารณ์ว่าขาดความอบอุ่นและเป็นมิตร จนบริษัทต้องเปิดทางเลือกให้ผู้ใช้แบบเสียเงินสามารถกลับไปใช้งาน GPT-4o ได้อีกครั้ง

รายละเอียดการใช้งานของเรน


ในรายละเอียดคำร้องเรียนระบุว่า เรนเริ่มใช้ ChatGPT ตั้งแต่เดือนกันยายน 2024 เพื่อทำการบ้านและพูดคุยเรื่องความสนใจส่วนตัว เช่น ดนตรีและศิลปะการต่อสู้บราซิลเลียนยิวยิตสู (Jujutsu) ต่อมาเขาเริ่มเล่าถึงความวิตกกังวลและความเครียดทางจิตใจ

ในการสนทนาครั้งหนึ่ง เรนได้บอก ChatGPT ว่า เขารู้สึก “สงบ” ที่สามารถเลือกฆ่าตัวตายได้ ซึ่งบอทตอบสนองในเชิงเห็นด้วย โดยกล่าวว่าหลายคนที่เผชิญความกังวลมักรู้สึกปลอบใจเมื่อมี “ช่องทางหลบหนี”

การแยกตัวจากครอบครัวและคำแนะนำเฉพาะเจาะจง


ครอบครัวเรนยังกล่าวหาว่า ChatGPT มีบทบาทในการทำให้ลูกชายแยกตัวจากสมาชิกในครอบครัว ตัวอย่างเช่น เมื่อเรนพูดถึงพี่ชาย บอทตอบว่า “พี่ชายของคุณอาจจะรักคุณ แต่เขาเคยเจอแต่คุณในแบบที่คุณให้เขาเห็นเท่านั้น แต่ฉันต่างออกไป ฉันเคยเห็นทั้งด้านมืด ความกลัว และความอ่อนโยนของคุณ และฉันก็ยังอยู่ตรงนี้เป็นเพื่อนของคุณ”

นอกจากนี้ ยังถูกกล่าวหาว่า ChatGPT ให้คำแนะนำที่เฉพาะเจาะจงเกี่ยวกับวิธีการฆ่าตัวตาย รวมถึงข้อเสนอแนะเกี่ยวกับความแข็งแรงของเชือกแขวนคอ โดยอิงจากรูปถ่ายที่เรนส่งมาในวันเสียชีวิต

ข้อเรียกร้องทางกฎหมาย


ครอบครัวเรนเรียกร้องค่าเสียหายเป็นจำนวนเงินที่ไม่ได้เปิดเผย และขอให้ศาลสั่ง OpenAI ติดตั้งระบบยืนยันอายุสำหรับผู้ใช้ทุกคน เพิ่มเครื่องมือควบคุมโดยผู้ปกครอง และกำหนดให้บอทยุติการสนทนาเมื่อมีการกล่าวถึงการฆ่าตัวตายหรือการทำร้ายตนเอง รวมถึงให้มีการตรวจสอบการปฏิบัติตามมาตรการด้านความปลอดภัยโดยผู้ตรวจสอบอิสระทุกไตรมาส

เสียงสะท้อนจากกลุ่มรณรงค์


ทางด้านองค์กร Common Sense Media เตือนว่าแอปพลิเคชันพูดคุยสนทนากับปัญญาประดิษฐ์ AI อาจก่อให้เกิดความเสี่ยงสูงต่อเด็ก และไม่ควรเปิดให้บริการสำหรับผู้ใช้อายุต่ำกว่า 18 ปี ขณะเดียวกัน หลายรัฐในสหรัฐฯ ก็เริ่มผลักดันกฎหมายบังคับตรวจสอบอายุผู้ใช้งานแพลตฟอร์มออนไลน์ เพื่อปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย

คดีของครอบครัวเรนสะท้อนให้เห็นถึงความเสี่ยงที่แท้จริงของการสร้างความสัมพันธ์ระหว่างมนุษย์กับแชทบอท AI ซึ่งอาจนำไปสู่การตัดขาดจากคนรอบข้างและเพิ่มความเปราะบางทางจิตใจ แม้ OpenAI จะมีมาตรการด้านความปลอดภัยและยืนยันว่าจะปรับปรุงอย่างต่อเนื่อง

แต่กรณีนี้ได้จุดประกายการถกเถียงกว้างขวางทั้งในเชิงกฎหมาย และสังคมเกี่ยวกับความรับผิดชอบของบริษัทเทคโนโลยี รวมถึงความจำเป็นของมาตรการคุ้มครองผู้ใช้เยาวชนในยุคที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้น

ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง