เหมือนมองเห็นอีกครั้ง ! ออสเตรเลียคิดแว่นตาอัจฉริยะ ช่วยคนตาบอดมองเห็นผ่านเสียง
นักวิจัยจากมหาวิทยาลัยเทคโนโลยีซิดนีย์ และมหาวิทยาลัยซิดนีย์ ร่วมกับบริษัทสตาร์ทอัพ แอเรีย รีเสิร์ซ (ARIA Research) จากประเทศออสเตรเลีย พัฒนาแว่นตาอัจฉริยะที่ช่วยให้คนตาบอด หรือผู้ที่มีความบกพร่องทางการมองเห็น สามารถ 'มองเห็น' สิ่งของรอบตัวจากเสียงได้ โดยใช้หลักการทำงานที่ได้แรงบันดาลใจมาจาก 'ค้างคาว'
โดยหลักการทำงานของตัวแว่นได้รับแรงบันดาลใจจากทักษะการระบุตำแหน่งวัตถุจากเสียงสะท้อน (echolocation) เป็นทักษะที่พบในสัตว์อย่างค้างคาว ซึ่งเป็นวิธีที่ค้างคาวใช้เสียงช่วยกำหนดตำแหน่งของสิ่งต่าง ๆ โดยมันจะปล่อยคลื่นเสียงออกไป เมื่อคลื่นเสียงกระทบวัตถุมันจะสะท้อนกลับมา ทำให้ค้างคาวสามารถรับรู้ขนาดและระยะทางของวัตถุได้
นักวิจัยจึงได้เอาแรงบันดาลใจจากทักษะนี้ มาพัฒนาเป็นเทคโนโลยีแว่นตา ที่จะช่วยเปลี่ยนข้อมูลภาพในระยะรอบ ๆ เป็นเสียงให้คนตาบอดได้ยิน และผลคือมันช่วยให้คนตาบอดสามารถใช้ชีวิตได้อย่างมีประสิทธิภาพมากขึ้น โดยเทคโนโลยีที่ใช้นี้เรียกว่า การสัมผัสแบบอะคูสติก (Acoustic Touch) ซึ่งเป็นเทคโนโลยีที่ใช้คลื่นเสียงประมวลผลวัตถุแทนการสัมผัสหรือมองเห็น
โดยชุดอุปกรณ์แว่นที่พวกเขาพัฒนาขึ้นนี้เรียกว่า “อุปกรณ์เสียงลอยตัว (Foveated Audio Device : FAD)” ซึ่งจะประกอบไปด้วยชุดแว่นตาเสมือนจริง AR (Augmented Reality) และโทรศัพท์ออปโป้ ไฟด์ เอ็กซ์ 3 โปร (OPPO Find X3 Pro) รวมถึงมีซอฟต์แวร์ชื่อยูนิตี้ เกม เอนจิน 2022 (Unity Game Engine 2022) ซึ่งเป็นแพลตฟอร์มพัฒนาเกมและสถานการณ์จำลอง จะประมวลผลเกี่ยวกับการนำเข้าและส่งออกข้อมูลจากกล้องติดตามในแว่นตา ให้กลายมาเป็นเสียง
นักวิจัยได้ทดสอบชุดแว่นตา FAD กับผู้เข้าร่วม 14 คน โดย 7 คนเป็นคนตาบอด และอีก 7 คนเป็นคนสายตาปกติแต่ปิดตาไว้ไม่ให้มองเห็นเพื่อเป็นตัวแปรควบคุม จากนั้นให้ทดสอบใช้งานแว่นตาในหลายรูปแบบ เช่น สวมแว่นตาแล้วไปนั่งเก้าอี้ สวมแว่นตาแล้วให้หาสิ่งของในห้องที่รกมาก
ผลปรากฏว่าผู้เข้าร่วมทั้งสองกลุ่มสามารถดำเนินการทดสอบต่าง ๆ ได้อย่างมีประสิทธิภาพ โดยไม่ต้องใช้ความพยายามของสมองประมวลผลมากเกินไป ส่วนคนตาปกติที่ถูกปิดตา พบว่าประสิทธิภาพการทำงานไม่ดีเท่าคนตาบอดนัก เพราะคนตาบอดมีความคุ้นชินและปรับตัวกับการเคลื่อนไหวขณะตาบอดอยู่ก่อนแล้ว แต่สำหรับคนตาดีเป็นการเปลี่ยนแปลงอย่างกะทัน
ชินเต็ง หลิน (Chin-Teng Lin) หนึ่งในผู้ร่วมวิจัยกล่าวว่า “แว่นตาอัจฉริยะนี้ จะใช้คอมพิวเตอร์และข้อมูลทางประสาทสัมผัสอื่น ๆ เพื่อแปลสภาพแวดล้อมของผู้สวมใส่ให้เป็นคำพูดที่ถูกสังเคราะห์ด้วยคอมพิวเตอร์ เช่น เสียงใบไม้ที่มีเสียงกรอบแกรบอาจหมายถึงต้นไม้ หรือเสี่ยงหึ่ง ๆ อาจหมายถึงโทรศัพท์”
ในขณะที่ ฮาว หยวน จู้ (Howe Yuan Zhu) ผู้นำการวิจัยนี้ บอกว่า “เสียงที่สร้างขึ้น ช่วยให้ผู้ใช้ระบุและเข้าถึงวัตถุได้อย่างแม่นยำ ดังนั้นการสัมผัสแบบอะคูสติกที่เราพัฒนาขึ้นนี้จึงมีศักยภาพที่จะทำให้ผู้ที่บกพร่องทางการมองเห็นสามารถใช้ชีวิตได้อย่างมีประสิทธิภาพ”
สำหรับผลงานิจัยการออกแบบอุปกรณ์ที่ช่วยให้คนตาบอด และคนที่มีปัญหาสายตาสามารถใช้ชีวิตประจำวันได้ได้อย่างเป็นปกตินี้ ถูกตีพิมพ์ลงในวารสารเกี่ยวกับวิทยาศาสตร์ชื่อ พลอสวัน (PLOS One) เมื่อวันที่ 25 ตุลาคมที่ผ่านมา
ปัจจุบันอุปกรณ์อยู่ระหว่างการวิจัยและพัฒนา แน่นอนว่าในอนาคตมันจะมีการพัฒนาขึ้นอีก และเทคโนโลยีนี้ก็อาจกลายเป็นส่วนสำคัญ ที่จะทำให้ผู้บกพร่องทางการมองเห็นสามารถใช้ชีวิตอย่างเป็นปกติสุขมากขึ้น
ที่มาข้อมูล Newatlas, UTS, PLOS, InterestingEngineering
ที่มารูปภาพ UTS