Meta แพ้คดีปกปิดพิษโซเชียล ส่อเขย่าวงการ AI เลิกวิจัยความปลอดภัย

#Meta #ทันหุ้น - สำนักข่าว CNBC รายงานว่า ความพ่ายแพ้ในชั้นศาลของ Meta (เดิมคือ Facebook) ในสัปดาห์นี้ กำลังส่งสัญญาณอันตรายต่อการวิจัยด้านปัญญาประดิษฐ์ (AI) และความปลอดภัยของผู้บริโภคทั่วโลก
ย้อนกลับไปกว่าทศวรรษ Meta เคยจ้างนักวิจัยทางสังคมศาสตร์เพื่อวิเคราะห์ผลกระทบของบริการที่มีต่อผู้ใช้ เพื่อแสดงความจริงจังในการเข้าใจความเสี่ยงของนวัตกรรม แต่ความพ่ายแพ้ในศาลทั้งที่นิวเม็กซิโกและลอสแอนเจลิสพิสูจน์ให้เห็นว่า งานวิจัยเหล่านั้นกลับกลายเป็น "ดาบสองคม" ไบรอัน โบแลนด์ อดีตผู้บริหาร Facebook ซึ่งเป็นพยานในทั้งสองคดีระบุว่า ผลการวิจัยภายในและเอกสารลับของบริษัทขัดแย้งกับภาพลักษณ์ต่อสาธารณะอย่างสิ้นเชิง โดยคณะลูกขุนตัดสินว่า Meta ล้มเหลวในการควบคุมดูแลไซต์ของตน จนทำให้เด็กๆ ตกอยู่ในอันตราย
ยักษ์ใหญ่ของ มาร์ก ซักเคอร์เบิร์ก เริ่มสั่งปิดกั้นทีมวิจัยเมื่อไม่กี่ปีที่ผ่านมา หลังจาก ฟรานเซส ฮอเกน อดีตพนักงานกลายเป็นนกต่อ (Whistleblower) ชื่อดัง ขณะที่บริษัทเทคน้องใหม่อย่าง OpenAI และ Anthropic ที่เคยลงทุนสูงในด้านการศึกษาวิจัยผลกระทบของ AI ต่อผู้ใช้ กำลังเผชิญกับคำถามสำคัญว่า ควรจะสนับสนุนการวิจัยต่อไปหรือจะเลือก "ปิดปาก" เพื่อไม่ให้ข้อมูลเหล่านั้นย้อนกลับมาเป็นความผิดทางกฎหมายในอนาคต
หลักฐานมัดตัว: ข้อมูลที่สาธารณะไม่เคยรู้
คดีที่ Meta ปราชัยในสัปดาห์นี้มีหัวใจสำคัญร่วมกันคือ บริษัทไม่ยอมแบ่งปันข้อมูลเกี่ยวกับ "อันตรายของผลิตภัณฑ์" ให้สาธารณชนทราบ คณะลูกขุนต้องประเมินเอกสารภายในจำนวนมหาศาล รวมถึงอีเมลผู้บริหารและงานวิจัยที่ระบุว่า วัยรุ่นจำนวนมากถูกคุกคามทางเพศบน Instagram รวมถึงงานวิจัยที่ Meta สั่งยุติไป ซึ่งระบุว่าผู้ที่ลดการใช้ Facebook จะมีสภาวะซึมเศร้าและวิตกกังวลน้อยลง
แม้ฝ่ายจำเลยจะอ้างว่างานวิจัยเหล่านั้นเก่าและถูกนำเสนอแบบผิดบริบท แต่ลิซา สโตรแมน นักจิตวิทยาและทนายความวิเคราะห์ว่า ผู้บริหารเทคโนโลยีอาจเคยคิดว่าจะใช้วิจัยภายในเพื่อสร้างภาพลักษณ์ที่ดี แต่พวกเขาลืมไปว่า "นักวิจัยก็เป็นพ่อแม่และสมาชิกในครอบครัว" ที่ไม่สามารถถูกซื้อตัวได้ ความพินาศครั้งใหญ่ที่สุดเกิดขึ้นในปี 2021 เมื่อฮอเกนเปิดโปงเอกสารที่แสดงว่าบริษัทรู้ถึงอันตรายแต่ไม่แก้ไข ซึ่งเป็นจุดเปลี่ยนสำคัญที่ทำให้บริษัทเทคโนโลยีเริ่มกำจัดทีมวิจัยที่อาจสร้างผลเสียต่อภาพลักษณ์องค์กรออกไป
จากโซเชียลมีเดียสู่หายนะ AI
เคท บล็อกเกอร์ ผู้อำนวยการด้านการวิจัยจากองค์กรไม่แสวงหากำไร Children and Screens แสดงความกังวลว่า ในขณะที่อุตสาหกรรมกำลังรุกหนักด้าน AI บริษัทอย่าง Meta, OpenAI และ Google กลับให้ความสำคัญกับ "ผลิตภัณฑ์" มากกว่า "ความปลอดภัยและการวิจัย" โดยส่วนใหญ่ศึกษเพียงพฤติกรรมของโมเดล แต่กลับมีช่องว่างขนาดใหญ่ในงานวิจัยเกี่ยวกับผลกระทบของแชตบอตต่อพัฒนาการเด็ก
"บริษัท AI มีโอกาสที่จะไม่ทำผิดพลาดซ้ำรอยอดีต" บล็อกเกอร์กล่าว พร้อมย้ำถึงความจำเป็นเร่งด่วนในการสร้างระบบที่โปร่งใสและเปิดเผยสิ่งที่บริษัทรู้ต่อสาธารณะ เพื่อป้องกันไม่ให้ประวัติศาสตร์ความล้มเหลวของโซเชียลมีเดียซ้ำรอยในโลกของปัญญาประดิษฐ์
Tag
ยอดนิยมในตอนนี้
