นักวิจัยใช้ AI ถอดรหัสคลื่นสมอง ช่วยหญิงป่วยเป็นอัมพาตสื่อสารผ่านอวทาร์
นักวิจัยในสหรัฐอเมริกาช่วยให้หญิงคนหนึ่งซึ่งป่วยเป็นอัมพา ตและไม่สามารถพูดได้ให้กลับมาสื่อสารได้อีกครั้ง ด้วยการใช้เทคโนโลยีปัญญาประดิษฐ์ หรือเอไอ (AI) ช่วยแปลสัญญาณสมองให้ออกมาเป็นข้อความ เสียงพูด และการแสดงสีหน้าของตัวละครเสมือนจริงหรืออวทาร์ (Avatar) บนจอภาพให้สื่อสารได้ดียิ่งขึ้น
งานวิจัยนี้ เป็นของทีมนักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย สหรัฐอเมริกา โดยมีเป้าหมายคือช่วยฟื้นฟูความสามารถในการสื่อสารของ แอน จอห์นสัน (Ann Johnson) ผู้เข้าร่วมทดลองซึ่งป่วยเป็นโรคหลอดเลือดสมอง ทำให้ก้านสมองเสียหาย และสูญเสียความสามารถในการพูดหรือขยับแขน
ทีมนักวิจัยจึงได้ใช้เทคโนโลยีปัญญาประดิษฐ์ หรือเอไอ ร่วมกับเทคโนโลยี BCI : Brain-Computer Interface ช่วยในการอ่านคลื่นสมอง และแปลงออกมาเป็นสัญญาณต่าง ๆ โดยเทคโนโลยีนี้ จะทำงานร่วมกับอุปกรณ์อิเล็กโทรด หรือขั้วตรวจจับสัญญาณไฟฟ้า ที่ฝังอยู่ในสมอง เพื่อรับสัญญาณสมองที่สอดคล้องกับการสั่งการเคลื่อนไหวของริมฝีปาก ลิ้น และการเปล่งเสียง
จากนั้นตัวรับสัญญาณที่อยู่บนศีรษะ จะส่งสัญญาณเหล่านั้นไปยังคอมพิวเตอร์ที่ติดตั้งระบบปัญญาประดิษฐ์ เพื่อถอดรหัสออกมาเป็นข้อความ เสียงพูด หรือการขยับใบหน้า ให้กับตัวละครอวทาร์ ที่ปรากฏบนหน้าจอคอมพิวเตอร์ โดยเสียงพูดของอวทาร์ ก็มาจากเสียงจริงของผู้ป่วยเอง ที่เคยบันทึกไว้ในวิดีโอวันแต่งงานอีกด้วย
ผู้เชี่ยวชาญกล่าวว่า งานวิจัยนี้ เป็นครั้งแรกที่มีการถอดรหัสจากสัญญาณสมองให้ออกมาเป็นคำพูดและการแสดงออกทางสีหน้าได้ ซึ่งช่วยให้ผู้เข้าร่วมการทดลองในครั้งนี้ สามารถสื่อสารผ่านตัวละครบนจอภาพได้อย่างมีประสิทธิภาพมากขึ้น และการใช้เอไอ ยังช่วยให้อุปกรณ์ดังกล่าวสามารถทำงานได้เร็วขึ้นด้วย เพราะจากเดิมที่สามารถแสดงผลได้ประมาณ 14 คำต่อนาที แต่ตอนนี้ สามารถแสดงผลได้มากถึง 78 คำต่อนาที ถือว่าเข้าใกล้อัตราคำสำหรับการสนทนาของมนุษย์ตามธรรมชาติ ที่จะอยู่ที่ประมาณ 140 ถึง 160 คำต่อนาที
สำหรับงานวิจัยนี้ ได้รับการตีพิมพ์ในวารสารทางวิทยาศาสตร์ เนเจอร์ (Nature) อย่างไรก็ตามทีมวิจัยกล่าวว่า ยังต้องมีการปรับปรุงความแม่นยำของอุปกรณ์ต่อไป และหวังว่าจะพัฒนาให้ตัวอุปกรณ์ที่ใช้มีขนาดเล็กลง และใช้การเชื่อมต่อแบบไร้สาย เพื่อความสะดวกในการใช้งานมากขึ้น
ข้อมูลจาก reutersconnect, designtaxi