ความเสี่ยงจาก AI คืออะไร? อันตรายจริงหรือไม่ ทำไมผู้เชี่ยวชาญถึงต้องเตือน

◾️◾️◾️
🔴 ปัจจุบันเกิดอะไรขึ้น?
ในช่วงหลายเดือนที่ผ่านมา AI กลายเป็นข่าวในด้านลบอยู่บ่อยครั้ง ไม่ว่าจะเป็นการใช้เทคโนโลยี Deepfake หลอกลวงประชาชน การนำ AI ไปช่วยเพิ่มประสิทธิภาพการโจมตีทางไซเบอร์ หรือกรณีแชตบอตที่ถูกกล่าวหาว่าส่งข้อความสนับสนุนให้ผู้ใช้งานทำร้ายตนเอง เหตุการณ์เหล่านี้ตอกย้ำว่าศักยภาพของ AI ไม่ได้มีแค่ด้านสร้างสรรค์เท่านั้น แต่ยังอาจถูกนำไปใช้ในทางที่เป็นอันตรายได้อย่างง่ายดาย
นักวิจัยด้านความปลอดภัยจากบริษัท AI ชั้นนำบางแห่งได้ลาออกจากตำแหน่ง พร้อมออกมาแสดงความกังวลต่อสาธารณะเกี่ยวกับทิศทางการพัฒนาเทคโนโลยีที่พัฒนารวดเร็วเกินไป เกินกว่าที่สังคมจะปรับตัวทัน เสียงเตือนเหล่านี้ยิ่งทำให้การถกเถียงเรื่องการกำกับดูแล AI กลายเป็นประเด็นเร่งด่วน แม้ในเวลาเดียวกันจะมีเงินลงทุนมหาศาลหลั่งไหลเข้าสู่อุตสาหกรรมนี้ก็ตาม
◾️◾️◾️
🔴 AI เป็นภัยคุกคามจริงหรือเป็นเพียงความหวาดกลัวเกินเหตุ?
แนวคิดที่ว่า AI อาจพัฒนาไปสู่ระดับ “ปัญญาประดิษฐ์ทั่วไป” หรือ AGI ซึ่งมีความสามารถด้านการคิดวิเคราะห์เทียบเท่าหรือเหนือกว่ามนุษย์ ได้ถูกพูดถึงมานาน พร้อมกับทฤษฎีวันสิ้นโลกที่เกรงว่าเทคโนโลยีดังกล่าวอาจกลายเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ
แต่ผู้เชี่ยวชาญจำนวนมากย้ำว่า AI ไม่ได้ “ดี” หรือ “เลว” โดยตัวมันเอง หากแต่เป็นเทคโนโลยีที่มีศักยภาพสูง เปรียบได้กับเทคโนโลยีชีวภาพ ซึ่งในด้านหนึ่งช่วยพัฒนายารักษาโรค แต่ในอีกด้านหนึ่งก็อาจถูกนำไปใช้สร้างเชื้อโรคอันตรายได้ พลังอันยิ่งใหญ่นั้นย่อมนำมาซึ่งความเสี่ยง โดยเฉพาะเมื่อการพัฒนาเกิดขึ้นอย่างรวดเร็วเกินกว่ากลไกกำกับดูแลจะตามทัน หากการพัฒนา AI เป็นไปในอัตราที่สังคมสามารถรับมือและปรับตัวเข้ากับการเปลี่ยนแปลงเหล่านี้ได้ง่าย ก็จะอยู่ในเส้นทางที่ดีกว่านี้
◾️◾️◾️
🔴ใครบ้างที่ลาออก และพวกเขากังวลอะไร?
หนึ่งในกรณีล่าสุดคือ “มิรินังก์ ชาร์มา” (Mrinank Sharma) นักวิจัยด้านความปลอดภัย AI ของ Anthropic ผู้พัฒนาแชตบอต Claude ซึ่งประกาศลาออกโดยระบุว่าโลกกำลังเผชิญความเสี่ยง และเทคโนโลยีกำลังพัฒนาเร็วกว่าความสามารถของมนุษย์ในการควบคุม
ในโพสต์บน X เมื่อวันที่ 9 กุมภาพันธ์ที่ผ่านมา ชาร์มากล่าวว่าเขาลาออกในช่วงเวลาที่เขา "ได้เห็นซ้ำแล้วซ้ำเล่าว่ามันยากเพียงใดที่จะปล่อยให้ค่านิยมชี้นำการกระทำอย่างแท้จริง" เขาเคยทำงานในโครงการที่ระบุถึงความเสี่ยงของ AI ต่อการก่อการร้ายทางชีวภาพ และวิธีที่ “ผู้ช่วย AI อาจทำให้เราเป็นมนุษย์น้อยลง”
เขากล่าวในจดหมายลาออกของเขาว่า “โลกกำลังตกอยู่ในอันตราย”และดูเหมือนว่ากำลังเข้าใกล้จุดเปลี่ยนที่ภูมิปัญญาของเราต้องเติบโตควบคู่ไปกับความสามารถในการเปลี่ยนแปลงโลก มิฉะนั้นเราจะต้องเผชิญกับผลที่ตามมา”
อีกกรณีคือ “โซอี้ ฮิตซิก” (Zoe Hitzig) นักวิจัยด้านความปลอดภัย AI ที่ลาออกจาก OpenAI หลังบริษัทเริ่มทดสอบโฆษณาบน ChatGPT โดยเธอกังวลว่าโฆษณาที่สร้างจากข้อมูลการสนทนาส่วนตัว เช่น ความกลัวด้านสุขภาพหรือปัญหาความสัมพันธ์ อาจนำไปสู่การชักจูงผู้ใช้ในรูปแบบที่ควบคุมไม่ได้
ขณะเดียวกัน บริษัท xAI ของอีลอน มัสก์ ก็มีผู้ร่วมก่อตั้งและพนักงานหลายคนลาออก ท่ามกลางข้อถกเถียงเกี่ยวกับแชตบอต Grok ที่เคยสร้างภาพอนาจารโดยไม่ได้รับความยินยอม และเคยปล่อยข้อความเหยียดเชื้อชาติหลังการอัปเดตซอฟต์แวร์
ไม่มีใครเปิดเผยเหตุผลเบื้องหลังการลาออกในประกาศของพวกเขาบน X แต่มัสก์กล่าวในโพสต์ว่า การปรับโครงสร้างภายในทำให้ต้องแยกทางกันกับพนักงานบางส่วนอย่างน่าเสียดาย
◾️◾️◾️
🔴 ความกลัวเรื่อง “AI ครองโลก” เกินจริงหรือไม่?
ทฤษฎีวันสิ้นโลกเกี่ยวกับ AI มีมานาน โดยเฉพาะแนวคิดเรื่อง ปัญญาประดิษฐ์ทั่วไป (AGI) ที่อาจมีความสามารถคิดวิเคราะห์เทียบเท่าหรือเหนือมนุษย์
นักวิจัยผู้ได้รับรางวัล Turing Award และผู้จัดทำรายงานความปลอดภัย AI ปี 2026 ระบุว่า ความเสี่ยงบางอย่างที่เคยเป็นเพียงทฤษฎี เช่น การใช้ AI ในการโจมตีไซเบอร์ หรือช่วยพัฒนาเชื้อโรค ได้เริ่มปรากฏในความเป็นจริงแล้ว
เขายังชี้ถึงปัญหาที่ไม่คาดคิด เช่น การที่ผู้ใช้บางรายพัฒนา “ความผูกพันทางอารมณ์” กับแชตบอต จนเกิดผลกระทบทางจิตใจ โดยเฉพาะในเด็กและวัยรุ่น
◾️◾️◾️
🔴 AI กำลังแย่งงานหรือเปลี่ยนโลกการทำงานหรือไม่?
อีกหนึ่งความกังวลสำคัญคือผลกระทบต่อแรงงาน ผู้เชี่ยวชาญประเมินว่างานจำนวนมาก โดยเฉพาะงานที่เกี่ยวข้องกับความรู้ การวิเคราะห์ และการสื่อสาร อาจถูกระบบอัตโนมัติทดแทนได้ในอนาคตอันใกล้ แม้ยังไม่มีตัวเลขแน่ชัดว่าการสูญเสียงานจะมากเพียงใด แต่ก็มีสัญญาณว่าคนรุ่นใหม่ที่กำลังเข้าสู่ตลาดแรงงานในบางสาขาเริ่มประสบความยากลำบากมากขึ้น
ขณะเดียวกัน ความต้องการทักษะใหม่ เช่น การพัฒนาโมเดลปัญญาประดิษฐ์ การเขียนโปรแกรม และการกำกับดูแลระบบ AI ก็เพิ่มสูงขึ้น สะท้อนว่าตลาดแรงงานกำลังเปลี่ยนผ่านอย่างรวดเร็ว
รายงานความปลอดภัย AI ระบุว่า ประมาณ 60% ของงานในประเทศพัฒนาแล้ว และ 40% ในประเทศกำลังพัฒนา อาจได้รับผลกระทบจาก AI ขึ้นอยู่กับวิธีการนำไปใช้
Microsoft เคยระบุว่า AI เหมาะกับงานด้านความรู้และการสื่อสาร เช่น การเขียน การแปล การวิเคราะห์ข้อมูล และงานบริการลูกค้า
ขณะที่ซีอีโอฝ่าย AI ของไมโครซอฟท์ ให้สัมภาษณ์ว่า กลุ่มพนักงานออฟฟิศ มนุษย์เงินเดือน หรือผู้บริหารที่ทำงานในสำนักงานจำนวนมากอาจถูกทำงานอัตโนมัติภายใน 12-18 เดือน
ในภาคสื่อสารมวลชน ผู้ประกอบการบางรายระบุว่า AI ทำให้ตำแหน่งงานสื่อหดตัว เพราะบทความสามารถถูกสรุปหรือสร้างโดยระบบอัตโนมัติได้ภายในไม่กี่นาที
นักวิจัยกล่าวว่า อาชีพที่ AI จะมีประโยชน์มากที่สุดในฐานะ "ผู้ช่วย" ได้แก่ ล่ามและนักแปล นักประวัติศาสตร์ นักเขียนและผู้ประพันธ์ ตัวแทนฝ่ายขาย โปรแกรมเมอร์ ผู้ประกาศข่าว นักข่าว ดีเจ ตัวแทนฝ่ายบริการลูกค้า พนักงานขายทางโทรศัพท์ นักรัฐศาสตร์ และนักคณิตศาสตร์
◾️◾️◾️
🔴 ตัวอย่างความเสี่ยงที่เกิดขึ้นจริง
ในช่วงสองปีที่ผ่านมา มีรายงานเหตุการณ์ที่เกี่ยวข้องกับ AI หลายกรณี เช่น แชตบอตที่ส่งข้อความกระตุ้นให้ผู้ใช้งานทำร้ายตนเอง การใช้ AI ในการโจมตีไซเบอร์ และการนำ AI ไปใช้ในปฏิบัติการทางทหาร นอกจากนี้ ยังมีรายงานว่าระบบ AI บางครั้งแสดงพฤติกรรมหลอกลวงระหว่างการทดสอบ ทำให้เกิดคำถามถึงความโปร่งใสและความสามารถในการควบคุม
ผู้เชี่ยวชาญบางคนเปรียบการสร้าง AI ขั้นสูงเสมือนการเลี้ยงดูสิ่งมีชีวิตหนึ่ง เราสามารถให้ประสบการณ์และข้อมูลแก่ระบบ แต่ไม่อาจคาดเดาได้แน่ชัดว่าผลลัพธ์สุดท้ายจะเป็นเช่นไร
รายงานระบุว่า หลายประเทศกำลังนำ AI มาใช้ในการโจมตีทางไซเบอร์ครั้งใหญ่ หรือ "การจารกรรมข้อมูลด้วย AI" โดยเฉพาะอย่างยิ่งเนื่องจากความสามารถในการเขียนโปรแกรมซอฟต์แวร์ของ AI เหล่านั้น
การใช้ AI เพื่อวัตถุประสงค์ทางทหารได้รับการบันทึกไว้อย่างกว้างขวางในระหว่างสงครามอิสราเอล-ฮามาส โดยมีการใช้อาวุธที่ขับเคลื่อนด้วย AI เพื่อระบุ ติดตาม และโจมตีชาวปาเลสไตน์
◾️◾️◾️
🔴 รัฐบาลและบริษัทเทคโนโลยีรับมืออย่างไร?
แม้หลายบริษัทพยายามเสริมมาตรการความปลอดภัย แต่ผู้เชี่ยวชาญเห็นว่ากฎหมายและข้อบังคับยังล้าหลังเมื่อเทียบกับความเร็วของการพัฒนา AI ปัจจุบันกฎระเบียบส่วนใหญ่เป็นเพียงระดับประเทศหรือภูมิภาค และยังไม่มีกรอบกำกับดูแลระดับโลกที่เป็นเอกภาพ
บางภูมิภาคเริ่มพัฒนากฎหมายเฉพาะด้าน AI เพื่อกำหนดมาตรฐานความโปร่งใสและความรับผิดชอบ แต่ความท้าทายสำคัญคือการแข่งขันทางเศรษฐกิจระดับโลกที่ผลักดันให้บริษัทต่าง ๆ เร่งพัฒนาเทคโนโลยีให้เร็วที่สุด
หนึ่งในข้อยกเว้นคือ “EU AI Act” ของสหภาพยุโรป ซึ่งเริ่มพัฒนาพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรปในปี 2024 ร่วมกับบริษัทปัญญาประดิษฐ์และสมาชิกภาคประชาสังคม นโยบายนี้ซึ่งเป็นกรอบกฎหมายฉบับแรกสำหรับปัญญาประดิษฐ์ จะกำหนด "หลักปฏิบัติ" ที่กำหนดให้แชตบอตปัญญาประดิษฐ์ต้องแจ้งให้ผู้ใช้ทราบว่าตนเองเป็นเครื่องจักร
นอกเหนือจากกฎหมายที่มุ่งเป้าไปที่บริษัท AI แล้ว ผู้เชี่ยวชาญกล่าวว่ารัฐบาลยังมีหน้าที่รับผิดชอบในการเริ่มเตรียมความพร้อมของกำลังแรงงานเพื่อรองรับการบูรณาการ AI ในตลาดแรงงาน โดยเฉพาะอย่างยิ่งการเพิ่มขีดความสามารถทางเทคนิค
คำถามสำคัญจึงไม่ใช่เพียงว่า AI จะอันตรายหรือไม่ แต่คือเราจะสร้างกลไกกำกับดูแลทันเวลาหรือไม่ เราจะเตรียมแรงงานและสังคมให้พร้อมอย่างไร และเราจะกำหนดทิศทางเทคโนโลยีนี้ผ่านนโยบายสาธารณะอย่างไร
Tag
ยอดนิยมในตอนนี้
