รีเซต

เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram
TNN ช่อง16
19 มีนาคม 2567 ( 17:57 )
68
เปิดแพลตฟอร์ม เซฟเหยื่อ “ภาพโป๊” ไม่ให้ใช้ข่มขู่แบล็คเมล์เยาวชนบน Facebook และ Instagram

Facebook ประเทศไทย จาก Meta ประกาศขยายโครงการ Take It Down ในประเทศไทย เพื่อปกป้องไม่ให้ภาพถ่ายของวัยรุ่นและเยาวชนที่มีอายุไม่เกิน 18 ปี ไม่ให้เผยแพร่สู่โลกออนไลน์ ด้วยการเข้าถึงการควบคุมและยับยั้งผ่านบริการของ Take It Down ไม่ว่าจะเป็นภาพเปลือย ภาพเปลือยบางส่วน หรือภาพอนาจาร โดยการเพิ่มบริการในภาษาไทย พร้อมจัดงานแถลงข่าวประกาศเปิดตัว ณ สำนักงาน Meta ประเทศไทย ในวันที่ 19 มีนาคมที่ผ่านมา


โครงการ Take It Down กับการจัดการ “ภาพโป๊” วัยรุ่น

แพลตฟอร์ม ‘Take It Down’ ได้รับการพัฒนาขึ้นโดยศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) และสนับสนุนโดยเทคโนโลยีที่พัฒนาขึ้นโดย Meta  ที่พัฒนาขึ้นเพื่อให้บริการลบรูปภาพส่วนตัวออกจากอินเทอร์เน็ต เพื่อป้องกันไม่ให้เกิดการเผยแพร่ต่อบนโลกออนไลน์ สำหรับผู้ที่มีอายุ 18 ปีหรือต่ำกว่า 


ในปัจจุบัน โครงการได้พัฒนาบริการให้ครอบคลุมกว่า 25 ภาษาทั่วโลกและขยายการดำเนินงานในหลากหลายประเทศเพิ่มเติมรวมถึงในประเทศไทย ทำให้สามารถเข้าถึงวัยรุ่นจำนวนหลายล้านคนทั่วโลก ซึ่ง Meta ประกาศเป็นหนึ่งในเจตนารมณ์ของบริษัทในการต่อสู้กับอาชญากรรมในรูปแบบการขู่กรรโชกทางเพศ (Sextortion) 


มาลีนา เอนลุนด์ ผู้จัดการฝ่ายนโยบายความปลอดภัยประจำภูมิภาคเอเชียแปซิฟิก กล่าวว่า “การถูกนำภาพส่วนตัวไปเผยแพร่เป็นเรื่องที่เลวร้ายมาก โดยเฉพาะสำหรับเด็กและเยาวชน และสถานการณ์จะยิ่งเลวร้ายกว่าเดิม หากมีใครก็ตามข่มขู่ว่าจะนำภาพส่วนตัวของพวกเขาไปเผยแพร่ หากเหยื่อปฏิเสธที่จะแชร์รูปภาพโป๊เปลือยเพิ่ม หรือมีกิจกรรมทางเพศด้วย หรือแม้แต่การส่งเงินให้ ซึ่งเป็นส่วนหนึ่งของรูปแบบอาชญากรรมที่เรียกว่าการขู่กรรโชกทางเพศ”


วิธีการใช้งานบริการ Take It Down

บริการ Take It Down สามารถใช้งานได้หลากหลายวิธี ไม่ว่าจะเป็นเพื่อการค้นหาและลบรูปภาพส่วนตัวออกจากอินเทอร์เน็ต หรือการช่วยยับยั้งการเผยแพร่รูปภาพส่วนตัวเหล่านั้นบนโลกออนไลน์ตั้งแต่แรก โดยมีขั้นตอน ดังนี้ 


  1. 1. เข้าไปยังเว็บไซต์ TakeItDown.NCMEC.org และคลิก “เริ่ม”
  2. 2. ตอบคำถามสั้น ๆ เพียงไม่กี่ข้อ
  3. 3. เลือกรูปภาพหรือวิดีโอในอุปกรณ์ของคุณที่คุณรู้สึกกังวลว่าอาจปรากฏอยู่ บนโลกออนไลน์
  4. 4. แพลตฟอร์ม Take It Down จะกำหนดลายนิ้วมือดิจิทัลที่ไม่ซ้ำกันซึ่งเรียกว่าค่าแฮชให้กับรูปภาพหรือวิดีโอภาพเปลือย
  5. 5. ค่าแฮชจะถูกแชร์ไปยังแพลตฟอร์มออนไลน์ที่เข้าร่วมเพื่อสามารถนำไปตรวจหาได้ว่ามีรูปหรือวิดีโอเหล่านั้นอยู่บนแพลตฟอร์มหรือไม่ และลบเนื้อหาหรือยับยั้งการเผยแพร่สื่อเหล่านั้นต่อไป

กระบวนการทั้งหมดนี้จะไม่มีการนำรูปภาพหรือวิดีโอออกจากอุปกรณ์ของผู้ร้องเรียนและไม่มีผู้ใดได้เห็นภาพ นอกจากนี้ ผู้ร้องเรียนไม่จำเป็นต้องเปิดเผยข้อมูลส่วนบุคคลอีกด้วย


โดยบริการดังกล่าวเปิดให้บริการใช้งานฟรีสำหรับเด็กและเยาวชนที่มีอายุต่ำกว่า 18 ปี รวมถึงผู้ปกครองหรือผู้ใหญ่ที่ได้รับความไว้วางใจจากเด็กและเยาวชนในการจัดการกับรูปภาพส่วนตัวในนามของพวกเขา ผู้ใหญ่ที่กังวลว่ารูปภาพส่วนตัวของตนเองที่ถูกถ่ายไว้ก่อนอายุ 18 ปีถูกเผยแพร่ หรืออาจถูกเผยแพร่บนโลกออนไลน์ก็สามารถใช้งานได้เช่นกัน


เทคโนโลยีที่จัดการไม่ให้ภาพโป๊เพื่อการขู่กรรโชกและหาผลประโยชน์

บริการ Take It Down ทำงานด้วยเทคโนโลยีที่สร้างจากแพลตฟอร์ม StopNCII (หยุดการแพร่ระบาดของภาพส่วนตัวที่ไม่ได้รับการยินยอม) ซึ่ง Meta ได้เปิดตัวไปเมื่อปี 2021 ร่วมกับหน่วยงานไม่แสวงหาผลกำไรกว่า 70 องค์กรทั่วโลก เพื่อให้ความช่วยเหลือแก่ผู้ใหญ่ที่ตกเป็นเหยื่อของการถูกแชร์ภาพส่วนตัวบนโลกออนไลน์หรือการโดนแก้แค้นด้วยการโพสต์ภาพโป๊เปลือย (Revenge porn)


ในขณะที่ฝั่ง Meta ได้ใช้เทคโนโลยีและการจัดการใน 4 รูปแบบ ได้แก่

  1. 1. การตรวจจับภาพและวิดีโอที่มีเนื้อหาละเมิดทางเพศในเด็กหรือ CSAM (Child Sexual Abuse Material) จากโปรไฟล์ และภาพที่ผู้ใช้งานที่รายงานเข้ามา
  2. 2. การใช้ AI ตรวจจับคำที่มีความเกี่ยวข้องกับเนื้อหา CSAM
  3. 3. การใช้ AI ตรวจจับกิจกรรมผิดปกติ การเข้าถึงเนื้อหา และพฤติกรรมที่ส่อแววว่าเกี่ยวข้องกับ CSAM โดยข้อมูลในระบบหลังบ้าน หรือที่เรียกว่าเมตาดาตา (Metadata) 
  4. 4. การใช้คนทำงานร่วมกับระบบเรียนรู้ด้วยตัวเองของโปรแกรม (Machine Learning) เพื่อคัดกรองเนื้อหาให้เข้มข้นมากขึ้น พร้อมกับประสานหน่วยงานต่าง ๆ ต่อไป


ทั้งนี้ TNN Tech ได้ถามภายในงานว่าการตรวจจับนั้นครอบคลุมไปถึงการสนทนาส่วนตัว หรือกลุ่มการสนทนาในแพลตฟอร์มหรือไม่ ซึ่งมาลีนา เอนลุนด์ ได้ให้ข้อมูลว่าการตรวจจับจะไม่สามารถถูกตรวจจับได้ เนื่องจากเป็นการละเมิดสิทธิส่วนบุคคล ซึ่งมาลีนาเปรียบเสมือนการที่ตำรวจจะค้นบ้านก็จำเป็นต้องมีการแสดงหมายจับก่อน ไม่เช่นนั้นจะเป็นการละเมิดพื้นที่ส่วนบุคคล ดังนั้น หากพบเห็นการส่งต่อภาพโป๊ ภาพอนาจารเด็กวัยรุ่นในการสนทนาจึงควรร้องเรียนทางระบบเพื่อให้ดำเนินการตามขั้นตอน


การบังคับใช้กฎหมายและการจัดการกับ “ภาพโป๊” วัยรุ่น

จากการเสวนาภายในงาน หัวข้อ “ปกป้องเยาวชนจากภัยขู่กรรโชกทางเพศ” ของ Meta ได้เปิดเผยข้อมูลการบังคับใช้มาตรฐานชุมชนของ Meta ในช่วงตุลาคม-ธันวาคม ปี 2023 ที่ผ่านมา พบเนื้อหาที่ละเมิดกฎและเกี่ยวข้องกับการแสวงหาผลประโยชน์ทางเพศกับเด็กทั่วไปแล้วกว่า 16 ล้านเนื้อหา บน Facebook และกว่า 2.1 ล้านเนื้อหาบน Instagram โดยมากกว่าร้อยละ 98 ของเนื้อหาที่พบถูกจัดการก่อนเผยแพร่ด้วยการตรวจจับจาก AI ของ Meta ก่อนการรายงานโดยผู้ใช้


ในขณะเดียวกัน พ.ต.อ.รุ่งเลิศ คันธจันทร์ ผู้กำกับกลุ่มงานต่อต้านการล่วงละเมิดทางเพศต่อเด็กทางอินเทอร์เน็ต บก.ตอท.บช.สอท. ผู้เข้าร่วมเสวนากล่าวว่า “ปี 2023 ที่ผ่านมา มีการจับกุมดำเนินคดีไปแล้วกว่า 549 คดี แต่ปัญหาเรื่องสื่อที่มีการล่วงละเมิดทางเพศต่อเด็กทางออนไลน์ยังคงแพร่ระบาดอย่างหนัก ความร่วมมือระหว่างหน่วยงานผู้บังคับใช้กฎหมายและภาคเอกชนและแพลตฟอร์มจึงเป็นปัจจัยสำคัญในการแก้ปัญหาให้มีประสิทธิภาพและมีความรวดเร็วมากขึ้น”


วีรวรรณ มอสบี้ ผู้ก่อตั้งและผู้อำนวยการประจำโครงการฮัก ประเทศไทย หนึ่งในพันธมิตรด้านความปลอดภัยของ Meta กล่าวเสริมว่า “ เมื่อมีเหตุการณ์อาชญากรรมล่วงละเมิดทางเพศเด็กในรูปแบบการขู่แชร์ภาพโป๊เปลือยเกิดขึ้น แปลว่าผู้เสียหายได้เข้าสู่สภาวะวิกฤติของชีวิต ดังนั้น การทำงานแบบร่วมมือกันอย่างใกล้ชิด ไม่ว่าจะเป็นจากภาครัฐและเอกชน และโดยเฉพาะการสนับสนุนจากหน่วยงานสื่อโซเชียลจากทุกแพลตฟอร์มจึงเป็นเรื่องสำคัญยิ่ง”


ข้อมูลจาก Meta

ภาพจาก TNN Tech/Freepik

ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง