Prueban en el IOBA unas gafas que señalan los obstáculos a las personas con discapacidad visual
CGP/DICYT Investigadores de la Universidad Carlos III de Madrid (UC3M) han desarrollado un sistema integrable en unas gafas de realidad virtual que ayuda a las personas con discapacidad visual moderada a moverse por su entorno. La aplicación detecta la distancia y forma de los objetos e interactúa con el usuario mediante un sencillo código de colores.
El ingenio que han desarrollado los científicos de la UC3M podría resultar de utilidad a personas con discapacidad visual moderada, fundamentalmente a quienes tienen problemas para percibir toda la amplitud del entorno. “Este dispositivo se orienta a quienes en un deambular normal se chocarían con todo lo que dejan de ver por las pérdidas de su campo visual, producto de glaucomas, patologías retinianas, etc.”, indica el responsable del proyecto, Ricardo Vergaz, profesor del departamento de Tecnología Electrónica de la UC3M.
En estos momentos el invento se está probando sobre el soporte de unas gafas “inteligentes” en colaboración con el Instituto de Oftalmobiología Aplicada (IOBA) de la Universidad de Valladolid, donde realizan los ensayos clínicos de cara a su validación y aplicabilidad. “El IOBA nos contará sus resultados a finales de este año tras probarlo con una muestra de población representativa de los pacientes que podrían utilizar el dispositivo, lo que nos permitirá valorar el éxito y validez de su funcionamiento y mejorarlo”, comenta Ricardo Vergaz.
El objetivo final es mejorar la ergonomía del dispositivo, de modo que el usuario no tenga inconveniente en llevar estas gafas junto con un mecanismo electrónico ligero que se podría llevar en un bolsillo, según la información del IOBA y la UC3M recogida por DiCYT.
El prototipo se ha desarrollado sobre el soporte de un dispositivo HMD (Head Mounted Display), un casco de realidad virtual que integra dos cámaras y que está acoplado a un pequeño ordenador que procesa todas las imágenes que le llegan. A continuación, gracias al algoritmo que han desarrollado estos investigadores, el sistema determina la distancia y los contornos de los objetos y se lo comunica al usuario en tiempo real mediante dos micropantallas, resaltando la silueta de los elementos de la escena y variando el color en función de la distancia. “Detecta los objetos y las personas que se mueven dentro del campo visual que tendría una persona sin patologías. A menudo el paciente no los ve también por problemas de contraste”, explica el profesor Vergaz. “La información sobre profundidad es la que más echaban de menos los pacientes que usan este tipo de ayudas técnicas”, comenta.
Proyecto ATIDivisTA
Este proyecto potencia la línea de investigación relacionada con el diseño, desarrollo e innovación de nuevas técnicas destinadas a personas con discapacidades, iniciada en la UC3M por el Grupo de Displays y Aplicaciones Fotónicas. La aplicación ha sido elaborada en el marco del Proyecto de Ayudas Técnicas Integradas para Discapacidades visuales, Transportables y Accesibles (ATIDivisTA), en la convocatoria de ayudas para la consolidación de grupos de investigación con jóvenes investigadores de la Comunidad de Madrid.
Este grupo de investigadores también está desarrollando otro ingenio que consiste en una lupa virtual. “La principal novedad, destaca Vergaz, radica en el tipo de algoritmo desarrollado, que permite al usuario perderse menos mientras lee el texto”. El resultado es similar al modo en que funcionaría una lupa real, pero controlando la presentación en pantalla (móvil, tableta, etc.), con la modificación de la forma y dirección del aumento, para facilitar la lectura y evitar perder la línea y la referencia textual. Este sistema podría resultar de gran utilidad a personas con pérdida de visión en el campo central, como las que sufren degeneración macular asociada a la edad. Todas estas patologías no producen ceguera total y hay cientos de miles de personas afectadas o que potencialmente pueden serlo, en mayor o menor medida, sólo en España.