รีเซต

ความเสี่ยงจาก AI คืออะไร? อันตรายจริงหรือไม่ ทำไมผู้เชี่ยวชาญถึงต้องเตือน

ความเสี่ยงจาก AI คืออะไร? อันตรายจริงหรือไม่ ทำไมผู้เชี่ยวชาญถึงต้องเตือน
TNN ช่อง16
19 กุมภาพันธ์ 2569 ( 11:44 )
1

◾️◾️◾️

🔴 ปัจจุบันเกิดอะไรขึ้น?

ในช่วงหลายเดือนที่ผ่านมา AI กลายเป็นข่าวในด้านลบอยู่บ่อยครั้ง ไม่ว่าจะเป็นการใช้เทคโนโลยี Deepfake หลอกลวงประชาชน การนำ AI ไปช่วยเพิ่มประสิทธิภาพการโจมตีทางไซเบอร์ หรือกรณีแชตบอตที่ถูกกล่าวหาว่าส่งข้อความสนับสนุนให้ผู้ใช้งานทำร้ายตนเอง เหตุการณ์เหล่านี้ตอกย้ำว่าศักยภาพของ AI ไม่ได้มีแค่ด้านสร้างสรรค์เท่านั้น แต่ยังอาจถูกนำไปใช้ในทางที่เป็นอันตรายได้อย่างง่ายดาย

นักวิจัยด้านความปลอดภัยจากบริษัท AI ชั้นนำบางแห่งได้ลาออกจากตำแหน่ง พร้อมออกมาแสดงความกังวลต่อสาธารณะเกี่ยวกับทิศทางการพัฒนาเทคโนโลยีที่พัฒนารวดเร็วเกินไป เกินกว่าที่สังคมจะปรับตัวทัน เสียงเตือนเหล่านี้ยิ่งทำให้การถกเถียงเรื่องการกำกับดูแล AI กลายเป็นประเด็นเร่งด่วน แม้ในเวลาเดียวกันจะมีเงินลงทุนมหาศาลหลั่งไหลเข้าสู่อุตสาหกรรมนี้ก็ตาม

◾️◾️◾️

🔴 AI เป็นภัยคุกคามจริงหรือเป็นเพียงความหวาดกลัวเกินเหตุ?

แนวคิดที่ว่า AI อาจพัฒนาไปสู่ระดับ “ปัญญาประดิษฐ์ทั่วไป” หรือ AGI ซึ่งมีความสามารถด้านการคิดวิเคราะห์เทียบเท่าหรือเหนือกว่ามนุษย์ ได้ถูกพูดถึงมานาน พร้อมกับทฤษฎีวันสิ้นโลกที่เกรงว่าเทคโนโลยีดังกล่าวอาจกลายเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ

แต่ผู้เชี่ยวชาญจำนวนมากย้ำว่า AI ไม่ได้ “ดี” หรือ “เลว” โดยตัวมันเอง หากแต่เป็นเทคโนโลยีที่มีศักยภาพสูง เปรียบได้กับเทคโนโลยีชีวภาพ ซึ่งในด้านหนึ่งช่วยพัฒนายารักษาโรค แต่ในอีกด้านหนึ่งก็อาจถูกนำไปใช้สร้างเชื้อโรคอันตรายได้ พลังอันยิ่งใหญ่นั้นย่อมนำมาซึ่งความเสี่ยง โดยเฉพาะเมื่อการพัฒนาเกิดขึ้นอย่างรวดเร็วเกินกว่ากลไกกำกับดูแลจะตามทัน หากการพัฒนา AI เป็นไปในอัตราที่สังคมสามารถรับมือและปรับตัวเข้ากับการเปลี่ยนแปลงเหล่านี้ได้ง่าย ก็จะอยู่ในเส้นทางที่ดีกว่านี้

◾️◾️◾️

🔴ใครบ้างที่ลาออก และพวกเขากังวลอะไร?

หนึ่งในกรณีล่าสุดคือ “มิรินังก์ ชาร์มา” (Mrinank Sharma) นักวิจัยด้านความปลอดภัย AI ของ Anthropic ผู้พัฒนาแชตบอต Claude ซึ่งประกาศลาออกโดยระบุว่าโลกกำลังเผชิญความเสี่ยง และเทคโนโลยีกำลังพัฒนาเร็วกว่าความสามารถของมนุษย์ในการควบคุม

ในโพสต์บน X เมื่อวันที่ 9 กุมภาพันธ์ที่ผ่านมา ชาร์มากล่าวว่าเขาลาออกในช่วงเวลาที่เขา "ได้เห็นซ้ำแล้วซ้ำเล่าว่ามันยากเพียงใดที่จะปล่อยให้ค่านิยมชี้นำการกระทำอย่างแท้จริง" เขาเคยทำงานในโครงการที่ระบุถึงความเสี่ยงของ AI ต่อการก่อการร้ายทางชีวภาพ และวิธีที่ “ผู้ช่วย AI อาจทำให้เราเป็นมนุษย์น้อยลง”

เขากล่าวในจดหมายลาออกของเขาว่า “โลกกำลังตกอยู่ในอันตราย”และดูเหมือนว่ากำลังเข้าใกล้จุดเปลี่ยนที่ภูมิปัญญาของเราต้องเติบโตควบคู่ไปกับความสามารถในการเปลี่ยนแปลงโลก มิฉะนั้นเราจะต้องเผชิญกับผลที่ตามมา”

อีกกรณีคือ “โซอี้ ฮิตซิก” (Zoe Hitzig) นักวิจัยด้านความปลอดภัย AI ที่ลาออกจาก OpenAI หลังบริษัทเริ่มทดสอบโฆษณาบน ChatGPT โดยเธอกังวลว่าโฆษณาที่สร้างจากข้อมูลการสนทนาส่วนตัว เช่น ความกลัวด้านสุขภาพหรือปัญหาความสัมพันธ์ อาจนำไปสู่การชักจูงผู้ใช้ในรูปแบบที่ควบคุมไม่ได้

ขณะเดียวกัน บริษัท xAI ของอีลอน มัสก์ ก็มีผู้ร่วมก่อตั้งและพนักงานหลายคนลาออก ท่ามกลางข้อถกเถียงเกี่ยวกับแชตบอต Grok ที่เคยสร้างภาพอนาจารโดยไม่ได้รับความยินยอม และเคยปล่อยข้อความเหยียดเชื้อชาติหลังการอัปเดตซอฟต์แวร์

ไม่มีใครเปิดเผยเหตุผลเบื้องหลังการลาออกในประกาศของพวกเขาบน X แต่มัสก์กล่าวในโพสต์ว่า การปรับโครงสร้างภายในทำให้ต้องแยกทางกันกับพนักงานบางส่วนอย่างน่าเสียดาย

◾️◾️◾️

🔴 ความกลัวเรื่อง “AI ครองโลก” เกินจริงหรือไม่?

ทฤษฎีวันสิ้นโลกเกี่ยวกับ AI มีมานาน โดยเฉพาะแนวคิดเรื่อง ปัญญาประดิษฐ์ทั่วไป (AGI) ที่อาจมีความสามารถคิดวิเคราะห์เทียบเท่าหรือเหนือมนุษย์

นักวิจัยผู้ได้รับรางวัล Turing Award และผู้จัดทำรายงานความปลอดภัย AI ปี 2026 ระบุว่า ความเสี่ยงบางอย่างที่เคยเป็นเพียงทฤษฎี เช่น การใช้ AI ในการโจมตีไซเบอร์ หรือช่วยพัฒนาเชื้อโรค ได้เริ่มปรากฏในความเป็นจริงแล้ว

เขายังชี้ถึงปัญหาที่ไม่คาดคิด เช่น การที่ผู้ใช้บางรายพัฒนา “ความผูกพันทางอารมณ์” กับแชตบอต จนเกิดผลกระทบทางจิตใจ โดยเฉพาะในเด็กและวัยรุ่น

◾️◾️◾️

🔴 AI กำลังแย่งงานหรือเปลี่ยนโลกการทำงานหรือไม่?

อีกหนึ่งความกังวลสำคัญคือผลกระทบต่อแรงงาน ผู้เชี่ยวชาญประเมินว่างานจำนวนมาก โดยเฉพาะงานที่เกี่ยวข้องกับความรู้ การวิเคราะห์ และการสื่อสาร อาจถูกระบบอัตโนมัติทดแทนได้ในอนาคตอันใกล้ แม้ยังไม่มีตัวเลขแน่ชัดว่าการสูญเสียงานจะมากเพียงใด แต่ก็มีสัญญาณว่าคนรุ่นใหม่ที่กำลังเข้าสู่ตลาดแรงงานในบางสาขาเริ่มประสบความยากลำบากมากขึ้น

ขณะเดียวกัน ความต้องการทักษะใหม่ เช่น การพัฒนาโมเดลปัญญาประดิษฐ์ การเขียนโปรแกรม และการกำกับดูแลระบบ AI ก็เพิ่มสูงขึ้น สะท้อนว่าตลาดแรงงานกำลังเปลี่ยนผ่านอย่างรวดเร็ว

รายงานความปลอดภัย AI ระบุว่า ประมาณ 60% ของงานในประเทศพัฒนาแล้ว และ 40% ในประเทศกำลังพัฒนา อาจได้รับผลกระทบจาก AI ขึ้นอยู่กับวิธีการนำไปใช้

Microsoft เคยระบุว่า AI เหมาะกับงานด้านความรู้และการสื่อสาร เช่น การเขียน การแปล การวิเคราะห์ข้อมูล และงานบริการลูกค้า

ขณะที่ซีอีโอฝ่าย AI ของไมโครซอฟท์ ให้สัมภาษณ์ว่า กลุ่มพนักงานออฟฟิศ มนุษย์เงินเดือน หรือผู้บริหารที่ทำงานในสำนักงานจำนวนมากอาจถูกทำงานอัตโนมัติภายใน 12-18 เดือน

ในภาคสื่อสารมวลชน ผู้ประกอบการบางรายระบุว่า AI ทำให้ตำแหน่งงานสื่อหดตัว เพราะบทความสามารถถูกสรุปหรือสร้างโดยระบบอัตโนมัติได้ภายในไม่กี่นาที

นักวิจัยกล่าวว่า อาชีพที่ AI จะมีประโยชน์มากที่สุดในฐานะ "ผู้ช่วย" ได้แก่ ล่ามและนักแปล นักประวัติศาสตร์ นักเขียนและผู้ประพันธ์ ตัวแทนฝ่ายขาย โปรแกรมเมอร์ ผู้ประกาศข่าว นักข่าว ดีเจ ตัวแทนฝ่ายบริการลูกค้า พนักงานขายทางโทรศัพท์ นักรัฐศาสตร์ และนักคณิตศาสตร์

◾️◾️◾️

🔴 ตัวอย่างความเสี่ยงที่เกิดขึ้นจริง

ในช่วงสองปีที่ผ่านมา มีรายงานเหตุการณ์ที่เกี่ยวข้องกับ AI หลายกรณี เช่น แชตบอตที่ส่งข้อความกระตุ้นให้ผู้ใช้งานทำร้ายตนเอง การใช้ AI ในการโจมตีไซเบอร์ และการนำ AI ไปใช้ในปฏิบัติการทางทหาร นอกจากนี้ ยังมีรายงานว่าระบบ AI บางครั้งแสดงพฤติกรรมหลอกลวงระหว่างการทดสอบ ทำให้เกิดคำถามถึงความโปร่งใสและความสามารถในการควบคุม

ผู้เชี่ยวชาญบางคนเปรียบการสร้าง AI ขั้นสูงเสมือนการเลี้ยงดูสิ่งมีชีวิตหนึ่ง เราสามารถให้ประสบการณ์และข้อมูลแก่ระบบ แต่ไม่อาจคาดเดาได้แน่ชัดว่าผลลัพธ์สุดท้ายจะเป็นเช่นไร

รายงานระบุว่า หลายประเทศกำลังนำ AI มาใช้ในการโจมตีทางไซเบอร์ครั้งใหญ่ หรือ "การจารกรรมข้อมูลด้วย AI" โดยเฉพาะอย่างยิ่งเนื่องจากความสามารถในการเขียนโปรแกรมซอฟต์แวร์ของ AI เหล่านั้น

การใช้ AI เพื่อวัตถุประสงค์ทางทหารได้รับการบันทึกไว้อย่างกว้างขวางในระหว่างสงครามอิสราเอล-ฮามาส โดยมีการใช้อาวุธที่ขับเคลื่อนด้วย AI เพื่อระบุ ติดตาม และโจมตีชาวปาเลสไตน์

◾️◾️◾️

🔴 รัฐบาลและบริษัทเทคโนโลยีรับมืออย่างไร?

แม้หลายบริษัทพยายามเสริมมาตรการความปลอดภัย แต่ผู้เชี่ยวชาญเห็นว่ากฎหมายและข้อบังคับยังล้าหลังเมื่อเทียบกับความเร็วของการพัฒนา AI ปัจจุบันกฎระเบียบส่วนใหญ่เป็นเพียงระดับประเทศหรือภูมิภาค และยังไม่มีกรอบกำกับดูแลระดับโลกที่เป็นเอกภาพ

บางภูมิภาคเริ่มพัฒนากฎหมายเฉพาะด้าน AI เพื่อกำหนดมาตรฐานความโปร่งใสและความรับผิดชอบ แต่ความท้าทายสำคัญคือการแข่งขันทางเศรษฐกิจระดับโลกที่ผลักดันให้บริษัทต่าง ๆ เร่งพัฒนาเทคโนโลยีให้เร็วที่สุด

หนึ่งในข้อยกเว้นคือ “EU AI Act” ของสหภาพยุโรป ซึ่งเริ่มพัฒนาพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรปในปี 2024 ร่วมกับบริษัทปัญญาประดิษฐ์และสมาชิกภาคประชาสังคม นโยบายนี้ซึ่งเป็นกรอบกฎหมายฉบับแรกสำหรับปัญญาประดิษฐ์ จะกำหนด "หลักปฏิบัติ" ที่กำหนดให้แชตบอตปัญญาประดิษฐ์ต้องแจ้งให้ผู้ใช้ทราบว่าตนเองเป็นเครื่องจักร

นอกเหนือจากกฎหมายที่มุ่งเป้าไปที่บริษัท AI แล้ว ผู้เชี่ยวชาญกล่าวว่ารัฐบาลยังมีหน้าที่รับผิดชอบในการเริ่มเตรียมความพร้อมของกำลังแรงงานเพื่อรองรับการบูรณาการ AI ในตลาดแรงงาน โดยเฉพาะอย่างยิ่งการเพิ่มขีดความสามารถทางเทคนิค

คำถามสำคัญจึงไม่ใช่เพียงว่า AI จะอันตรายหรือไม่ แต่คือเราจะสร้างกลไกกำกับดูแลทันเวลาหรือไม่ เราจะเตรียมแรงงานและสังคมให้พร้อมอย่างไร และเราจะกำหนดทิศทางเทคโนโลยีนี้ผ่านนโยบายสาธารณะอย่างไร

ยอดนิยมในตอนนี้

แท็กยอดนิยม

ข่าวที่เกี่ยวข้อง