มัดรวมทุกเรื่องของ Deepfake ผู้ร้ายของเทคโนโลยีหรือตัวช่วยชั้นดี ของปี 2022
หมดยุคไปแล้วกับคำว่า “ภาพตัดต่อ” ที่เราคุ้นเคย เพราะในวันนี้ แม้แต่ภาพเคลื่อนไหวในวิดิโอก็อาจไม่ “จริง” อย่างที่เราคิดเสมอไป ตั้งแต่อดีตผู้นำ บารัค โอบามา ไปจนถึงผู้กำกับสน.ที่ตื๊อให้คุณเปิดวิดิโอคอลเพื่อคุยถึงคดีขนส่งผิดกฎหมายที่เขาอ้างว่าคุณเข้าไปพัวพัน คุณจะแน่ใจได้อย่างไรว่าคนที่คุณกำลังเห็นและพูดคุยอยู่นั้น คือบุคคลนั้นจริง ๆ วันนี้ Tech By True Digital จะพาคุณมาทำความรู้จักทุกเรื่องเกี่ยวกับเทคโนโลยีที่ชื่อว่า Deepfake เทคโนโลยีสื่อสังเคราะห์จาก AI ที่สามารถสร้าง “เนื้อหาเสมือนจริง” จากบุคคลจริงที่แนบเนียนจนแทบแยกไม่ออก ทั้งสีหน้า ท่าทาง และน้ำเสียง รวมทั้งวิธี “จับโป๊ะ” เบื้องต้น ที่อาจช่วยให้คุณสังเกตคร่าว ๆ ได้ว่า คนที่คุณคุยอยู่นั้นกำลัง Deepfake คุณอยู่หรือไม่
Deepfake = Deep Learning + Fake
Deepfake เป็นการผสมคำระหว่าง Deep ที่มาจาก Deep Learning หรือ การเรียนรู้เชิงลึกของเทคโนโลยี AI และคำว่า Fake ที่หมายถึง ปลอม ดังนั้น Deepfake จึงหมายถึง สื่อสังเคราะห์ที่เกิดจากการเรียนรู้เชิงลึกของ Machine Learning และ AI ในการสร้างอัตลักษณ์เสมือนของบุคคลใดบุคคลหนึ่ง ด้วยการเรียนรู้จากภาพนิ่งและวิดีโอของบุคคลจริง โดย AI จะทำการเรียนรู้ตั้งแต่ ใบหน้า ท่าทางการพูด การเคลื่อนไหว ลักษณะทางกายภาพภายนอกอื่น ๆ แล้วสร้างเป็นเนื้อหาที่ออกมาได้ทั้งในรูปแบบของเสียง รูปภาพและวิดีโอ ที่ดูเป็นธรรมชาติ และมีลักษณะเหมือนต้นแบบ จนสังเกตได้ยากว่าเป็นของปลอม
แม้ว่า Deepfake จะเกิดขึ้นมานานแล้ว แต่จุดเปลี่ยนสำคัญที่ทำให้ Deepfake มีความแนบเนียนมากขึ้น เกิดจากการผสมผสานของ 2 เทคโนโลยีหลัก คือ โครงข่ายประสาทเทียม (Artificial Neural Networks) และ Generative Adversarial Networks (GANs) โดยวิธีการหลักคือ การที่ AI ใช้โครงข่ายประสาทเทียม (Artificial Neural Networks) เก็บข้อมูลต้นฉบับที่ต้องการปลอมแปลงในปริมาณมาก แล้วมาประมวลผลเลียนแบบระบบประสาทของมนุษย์จนสามารถเรียนรู้ได้เอง และผลิตสื่อสังเคราะห์นั้น ๆ และเพื่อความแนบเนียนและเป็นธรรมชาติของเนื้อหา จึงมีอีกหนึ่งตัวช่วยสำคัญคือ Generative Adversarial Networks (GANs) ซึ่งเป็นอัลกอริธึมที่จะคอยตรวจสอบและบอกว่า สื่อสังเคราะห์ดังกล่าวนั้นใกล้เคียงกับเป้าหมายหรือยัง ซึ่งหากยังก็จะส่งฟีดแบ็กกลับไปยังผู้สร้าง เพื่อให้ปรับแก้จนกระทั่งใกล้เคียงกับต้นฉบับจริงมากที่สุด
Deepfake ด้านมืดก็มี แต่ด้านดีก็ไม่น้อย
ในช่วงแรก Deepfake ได้รับความสนใจอย่างกว้างขวางในแวดวงของเกมและภาพยนตร์ เพื่อพัฒนาตัวละครให้เหมือนจริง ในกรณีที่นักแสดงไม่สามารถมาทำการแสดงได้ แต่ดูเหมือนว่า เมื่อพัฒนาการของ Deepfake สมจริงมากขึ้น การใช้งานในรูปแบบที่เป็นอันตรายก็มีมากขึ้นไปตามลำดับ ไม่ว่าจะเป็นเพื่อการสร้างข่าวปลอม หลอกลวงผู้อื่น ทำเนื้อหาอนาจารโดยไม่ได้รับการยินยอม หรือแม้แต่ใช้เป็นเครื่องมือในการโจมตีทางการเมือง อาทิ การใช้ใบหน้าของประธานาธิบดียูเครนประกาศยอมจำนนต่อประเทศรัสเซีย การปลอมใบหน้าและการพูดของบารัค โอบามาโดยใช้บทสนทนาของคนอื่น ที่ทำให้เข้าใจผิดได้ว่าโอบามามีแนวคิดทางการเมืองที่แตกต่างไปจากจุดยืนเดิม หรือในกรณีเมื่อปี 2019 ที่ CEO บริษัทพลังงานแห่งหนึ่งในอังกฤษถูกมิจฉาชีพใช้เทคโนโลยี Deepfake เลียนเสียงอย่างแนบเนียน เพื่อใช้โทรสั่งให้ทีมงานโอนเงินจำนวน 220,000 ยูโร หรือราว 8.5 ล้านบาทให้กับตัวแทนซัพพลายเออร์ในฮังการีหรือแม้แต่กรณีในประเทศไทยกับกรณีแก๊งค์คอลเซ็นเตอร์ที่กำลังระบาดอย่างหนักในตอนนี้ ที่เปลี่ยนวิธีการจากการโทรศัพท์เป็นการวิดีโอคอลโดยการใช้ Deepfake ภาพของเจ้าหน้าที่ตำรวจขยับปากตามเสียงของมิจฉาชีพ เพื่อเป็นเครื่องมือในการสร้างความน่าเชื่อถือในการหลอกลวงประชาชน เป็นต้น
---วิดีโอบารัค โอบามา ถูกปลอมการพูด ท่าทาง ด้วย Deepfake---
ที่มา: https://www.bbc.com/news/av/technology-40598465
แม้ว่า Deepfake ดูจะเป็นเทคโนโลยีผู้ร้ายที่ถูกใช้เพื่อสร้างความบิดเบือน หลอกลวง หรือล่วงละเมิด แต่ในความเป็นจริงแล้ว Deepfake ก็สามารถนำมาสร้างประโยชน์ได้เช่นกัน อาทิ การใช้ Deepfake ในการหาเสียงของประธานาธิบดีคนล่าสุดของเกาหลีใต้ Yoon Suk-yeol (ยุน ซอก ยอน) ซึ่งในระหว่างการหาเสียงเพื่อชิงตำแหน่งประธานาธิบดีเกาหลีใต้นั้น เขาใช้วิธีหาเสียงด้วยเทคโนโลยี Deepfake ผ่านร่างอวตาร “AI Yoon” โดยเป็นการตอบคำถามต่าง ๆ ที่มีคนเข้ามาถามผ่านเว็บไซต์ส่วนตัว ผ่านร่างอวตารของเขาที่น้ำเสียง ท่าทาง เหมือนตัวจริงมาตอบคำถามสด ๆ ทุกประการ เป็นการใช้เทคโนโลยีเข้ามาช่วยทำงานแทนคนในงานประเภทการวิเคราะห์ข้อมูลและประมวลผลแบบซ้ำ ๆ โดยที่ AI เรียนรู้จากชุดข้อมูลที่ทีมงานจัดเตรียมไว้ให้ โดยยุน ซอก ยอนเปิดเผยว่า เขาต้องบันทึกเสียงมากกว่า 3,000 ประโยค ทั้งในรูปแบบเสียงและวิดีโอ เพื่อเป็นข้อมูลสำหรับให้ Machine Learning จดจำ เรียนรู้ และประมวลผลออกมาเป็นร่างอวตารของเขาในรูปแบบ Deepfake ที่เหมือนจริงที่สุด ซึ่งปรากฎว่าได้รับความสนใจจากคนรุ่นใหม่ช่วงอายุ 20 ปีเป็นอย่างมากและสะท้อนวิสัยทัศน์การใช้เทคโนโลยีของว่าที่ประธานาธิบดีอีกด้วย
---รูปภาพ “AI Yoon” ---
ที่มา: http://www.koreaherald.com/
ไม่เพียงแค่ในแวดวงการเมืองเท่านั้น แต่สถานีโทรทัศน์ MBN สถานีเคเบิลทีวีของเกาหลีใต้ ก็ได้เปิดตัวผู้ประกาศข่าว AI ซึ่งใช้เทคโนโลยี Deepfake เพื่อสร้างร่างอวตารของผู้ประกาศข่าว Kim Joo-ha หรือในชื่อ “AI Kim” มาแล้วเมื่อปี 2020 โดย “AI Kim” นั้นมีรูปร่างหน้าตา เสียงพูด จนไปถึงลักษณะเฉพาะของการรายงานข่าว เช่น ท่าทางการจับปากกา ของ Kim Joo-ha ทุกประการ โดย Machine Learning เรียนรู้การเป็น Kim Joo-ha ด้วยการดูวิดีโอการรายงานข่าวของเธอเพื่อศึกษาน้ำเสียง การขยับริมฝีปาก วิธีการพูด หรือแม้แต่การพูดขณะเดิน มากกว่า 10 ชั่วโมง จนได้เป็น AI Kim ที่เหมือน Kim Joo-ha ตัวจริงแทบเป็นคนคนเดียวกัน ซึ่งก่อนหน้านี้เมื่อปลายปี 2018 สำนักข่าว Xinhua ของจีนก็ได้เปิดตัวผู้ประกาศข่าว AI ทั้งชายและหญิงมาแล้ว ซึ่งผู้ประกาศข่าว AI จะช่วยเข้ามาแก้ปัญหาการขาดแคลนผู้ประกาศข่าว โดยเฉพาะเมื่อมีข่าวด่วน ข่าวฉุกเฉิน หรือเมื่อมีความจำเป็นที่ต้องรายงานข่าวตลอด 24 ชั่วโมง เพื่อทดแทนความเหนื่อยล้าที่เกิดขึ้นในคนได้
ผู้ประกาศข่าว Kim Joo-ha ตัวจริง และ AI Kim ในจอซึ่งใช้เทคโนโลยี Deepfake
ที่มา: https://www.bbc.com/
หรือแม้แต่การใช้เทคโนโลยี Deepfake ในทางจิตบำบัด อาทิ การรักษาอาการ PTSD หรือ Post-Traumatic Stress Disorder ที่เกิดจากสภาวะจิตใจของผู้ป่วยที่ได้รับการกระทบกระเทือนอย่างรุนแรงจากเหตุการณ์เลวร้าย โดยหนึ่งในขั้นตอนการบำบัดคือการให้ผู้รับการบำบัดทดลองเผชิญหน้ากับความกลัวดังกล่าว ในสภาพแวดล้อมที่ปลอดภัย ภายใต้การดูแลของนักจิตบำบัด ซึ่ง Deepfake จะเข้ามามีส่วนช่วยในการสร้างสื่อสังเคราะห์ในกรณีที่ความกลัวดังกล่าวมีบุคคลเกี่ยวข้อง เพื่อให้ผู้รับการบำบัดสามารถเรียนรู้วิธีบรรเทาและก้าวข้ามผ่านเหตุการณ์ดังกล่าว ในสภาพแวดล้อมที่จะไม่เกิดอันตราย เป็นต้น
นอกจากในมุมของการบำบัดแล้ว Deepfake ยังสามารถเข้ามามีส่วนช่วยในการรักษาความเป็นส่วนตัวของผู้เข้ารับการบำบัด ด้วยการนำใบหน้าของบุคคลอื่น มาทดแทนในวิดิโอบันทึกการรักษา โดยยังคงสามารถรักษาน้ำเสียง อากัปกิริยา และรายละเอียดอื่น ๆ ได้ เพื่อให้นักจิตบำบัดสามารถย้อนทวน ส่งต่อ หรือปรึกษาเคสร่วมกับนักจิตบำบัดคนอื่น ๆ โดยไม่เผยแพร่ข้อมูลระบุตัวตนของผู้เข้ารับการบำบัด อย่างไรก็ตามในกรณีนี้ยังเป็นประเด็นที่ยังต้องศึกษาต่อไป เนื่องจากเกี่ยวข้องกับข้อกฎหมายการขอความยินยอมการใช้ข้อมูลตัวตนในการสร้างสื่อสังเคราะห์
นอกจากนี้ แม้อาจจะยังเป็นประเด็นถกเถียงในแง่ความเหมาะสมและศีลธรรม Deepfake ยังสามารถนำผู้เสียชีวิตกลับมาพบเจอกับคนรักหรือครอบครัวได้อีกครั้ง เพื่อช่วยบรรเทาความโศกเศร้า ความคิดถึง ดังในตัวอย่างของภาพยนตร์โฆษณาไก่ย่างห้าดาว ที่ได้ถ่ายทอดเรื่องราวชีวิตจริงของคุณสุพิชญา ณ สงขลา (โอ) ที่สูญเสียคุณแม่ไป ได้กลับมาเจอกับคุณแม่อีกครั้งผ่านเทคโนโลยี Deepfake และ VR โดยทีมงานได้ใช้รูปภาพกว่า 2,000 รูปและวิดีโอ ให้ระบบ AI ได้เรียนรู้ลักษณะหน้าตาและร่างกายของคุณแม่ เพื่อให้คุณโอได้สามารถกลับมาทานข้าวกับคุณแม่ได้อีกครั้ง
---ภาพยนตร์โฆษณาไก่ย่างห้าดาว ที่ใช้เทคโนโลยี Deepfake พาคุณแม่และลูกสาวกลับมาเจอกันอีกครั้ง ---
ที่มา: https://facebook.com/Fivestarbusiness/
ทั้งนี้ ด้วยความสามารถในการปลอมแปลงข้อมูลเสมือนได้อย่างแนบเนียน ทำให้มีผู้หาประโยชน์ในด้านลบจากเทคโนโลยี Deepfake มากกว่าในด้านดี โดยปรากฎการณ์ในด้านลบของ Deepfake นี้เองทำให้บริษัทเทคโนโลยียักษ์ใหญ่หลายแห่งมองไปถึงอนาคตและเตรียมพร้อมรับมือกับการใช้ Deepfake ในทางที่เป็นอันตราย เช่น Microsoft, Adobe, DARPA ที่เริ่มมีโปรเจกต์เพื่อตรวจสอบความถูกต้อง และตรวจจับภาพหรือวิดีโอที่เกิดจากเทคโนโลยี Deepfake ในขณะที่โซเชียลมีเดียแพลตฟอร์มหลายแห่ง เช่น Twitter, TikTok และ Reddit ก็มีนโยบายห้ามเผยแพร่เนื้อหาที่สร้างจากสื่อสังเคราะห์ลักษณะ Deepfake หรือแม้แต่ Meta (Facebook เดิม) ที่มีโปรเจกต์ Deepfake Detection Challenge เมื่อปี 2020 ที่ใช้ AI วิเคราะห์และแยกแยะวิดีโอมากกว่า 100,000 คลิป ว่าอันไหนเป็นสื่อจริงและอันไหนเป็นสื่อสังเคราะห์ โดยในปัจจุบัน AI ในโปรเจกต์ดังกล่าวสามารถให้ค่าความแม่นยำได้เพียง 65.81% ซึ่งถือว่ายังต้องการการพัฒนาอีกมาก
--- Deepfake Detection Challenge ของ Meta ---
ที่มา: https://ai.facebook.com/blog/deepfake-detection-challenge/
ด้าน MIT ก็ได้สร้างเว็บไซต์ Detect Fakes ที่ประกอบด้วยสื่อจริงและสื่อสังเคราะห์ เพื่อให้ผู้เข้าใช้เว็บไซต์ได้ทดลองแยกแยะว่าสื่อไหนจริง สื่อไหนสังเคราะห์ เป็นต้น
--- Website Detect Fakes ของ MIT ให้ลองตอบว่าวิดีโอคลิป Joe Biden จริงหรือปลอม---
ที่มา: https://detectfakes.media.mit.edu/
สังเกต Deepfake รับมือข่าวปลอม
เพราะเทคโนโลยีพัฒนาไปไกล Deepfake คุณภาพสูงจึงไม่ง่ายที่จะแยกแยะ เว็บไซต์ Detect Fakes จาก MIT ยังมีคำแนะนำเพิ่มเติมในการสังเกตและรับมือสื่อสังเคราะห์จาก Deepfake เพื่อฝึกฝน และสร้างสัญชาตญาณในการแยกแยะ ด้วยวิธีการตั้งคำถามต่อคลิปนั้น ๆ โดยดูจุดต่าง ๆ บนใบหน้า 8 จุด ดังนี้
- ใบหน้า ให้ความสนใจกับใบหน้าว่ามีลักษณะที่ผิดสัดส่วนหรือผิดธรรมชาติหรือไม่ เพราะการปรับแต่ง Deepfake คุณภาพสูงมักใช้การเปลี่ยนแปลงบนใบหน้าเสมอ
- แก้มและหน้าผาก ผิวดูเรียบเนียนหรือย่นเกินไปหรือไม่ ผิวหนัง เส้นผม และดวงตาสอดคล้องกับวัยหรือไม่
- ดวงตาและคิ้ว เงาที่ปรากฎบนคลิป เคลื่อนไหวอย่างเป็นธรรมชาติหรือไม่
- แว่นตา แสงตกกระทบ แสงสะท้อนมีมากเกินไปหรือไม่ มุมของแสงสะท้อนเปลี่ยนไปเมื่อบุคคลเคลื่อนไหวหรือไม่
- ขนบนใบหน้า เช่น หนวด เครา จอน ดูเหมือนจริงหรือไม่ ขาดความเงางามหรือมีมากเกินไป
- ไฝ ไฝดูผิดธรรมชาติหรือไม่ เหมือนจริงหรือไม่
- การกระพริบตา กระพริบตาบ่อยเกินไป เร็วเกินธรรมชาติหรือไม่
- ขนาดและสีของริมฝีปาก สอดคล้องกับใบหน้าโดยรวมหรือไม่ หรือมีจุดใดที่สีผิดเพี้ยนกว่าที่ควรจะเป็น
ก้าวต่อไปของ Deepfake
หลายคนมองว่า Deepfake อาจกลายเป็นภัยคุกคามสมัยใหม่ในโลกไซเบอร์ เพราะการนำไปใช้ประโยชน์ในทางลบนั้นกลับมีมากกว่าทางบวก โดยมีรายงานจาก IntSights องค์กรที่นำเสนอโซลูชันเพื่อตรวจจับ วิเคราะห์ และต่อต้านภัยคุกคามทางไซเบอร์ พบว่า แฮ็กเกอร์ทั่วโลกมีการใช้ Deepfake เพื่อโจมตีองค์กรและระดับผู้บริหารถึง 43% ในปี 2019 และมีความเป็นไปได้ว่าการปลอมแปลงในลักษณะนี้จะกลายเป็นเทคโนโลยีและวิธีการหลักที่แฮ็กเกอร์จะนำมาใช้ในปี 2022 โดยเชื่อว่า Deepfake มีความน่ากลัวกว่าการเรียกค่าไถ่หรือ Ransomwareต่อองค์กรอีกด้วย
เพราะ Deepfake อาจเป็นได้ทั้งผู้ร้าย และพระเอกชั้นดีหากนำไปใช้อย่างเหมาะสม ผู้บริโภคสื่อจึงต้องรู้เท่าทันเทคโนโลยีอยู่เสมอ ฉุกคิด หมั่นตั้งคำถาม และวิเคราะห์ข้อมูลโดยรอบก่อนตัดสินจากสิ่งที่เห็น เพื่อไม่ให้ตกเป็นเหยื่อของการใช้เทคโนโลยีมาหลอกลวงในทางที่ผิดต่อไป
--------------------------------------------
อ้างอิง
Illustration made by Freepik from www.flaticon.com
https://www.springnews.co.th/news/823811
https://www.tnnthailand.com/news/world/105043/
https://www.beeldengeluid.nl/deepfakes-mental-health
https://cybermagazine.com/cyber-security/deepfakes
https://detectfakes.media.mit.edu/
https://www.media.mit.edu/detect-fakes/
https://www.forbes.com/deepfakes