Tecnología Argentina , Santa Fe, Lunes, 02 de enero de 2012 a las 13:18

Trabajan en un modelo de cabeza virtual en 3D que se activa con la voz de una persona

El modelo, que permitir谩 la comunicaci贸n entre la persona y el ordenador, se podr谩 aplicar en industrias como el cine y en campos como la medicina

INFOUNIVERSIDADES/DICYT Investigadores de la Universidad Nacional de Rosario trabajan en un modelo de cabeza en tres dimensiones (3D) que se activa con la voz de una persona. El desarrollo permitirá que cualquier persona pueda comunicarse con una computadora de la misma manera en que lo hace con otra persona. El alcance de las posibilidades del modelo incluye un amplio abanico que va desde el desarrollo de técnicas para la industria del cine y los videojuegos hasta la asistencia en tratamientos clínicos.

 

Un grupo de científicos trabaja desde hace años en el procesamiento de señales multimedia. “La idea es copiar la forma en que los humanos se comunican entre sí para comunicarse con la máquina”, contó a InfoUniversidades Juan Carlos Gómez, el director del proyecto.

 

“El sistema propuesto permite la animación comandado por la señal de voz de una persona, de modelos de cabezas 3D, de manera que el movimiento de los labios y las expresiones faciales estén sincronizados con la señal de habla”, explicó el investigador, y agregó que “el trabajo propone un método sencillo y con equipamiento barato: una cámara web que se emplea para animar un modelo complejo del rostro de una persona, a través de la animación de un modelo más simple que se ajusta, en forma sencilla, al modelo complejo. Las expresiones faciales del modelo simple se mapean sobre el modelo complejo, lo que permite su animación con una carga computacional reducida, de esta manera, se posibilita la implementación en tiempo real”.

 

Múltiples aplicaciones

 

Un objetivo en el área de investigación en comunicación humano-computadora es que ésta se asemeje a la comunicación entre humanos, que es de naturaleza multimodal, donde “es importante no sólo la señal acústica del habla sino las expresiones del rostro para la comprensión del mensaje”, señaló el director.

 

Son muchos y variados los usos de este trabajo, ya que van desde técnicas para la industria del cine y los videojuegos hasta la asistencia en tratamientos clínicos como, por ejemplo, la estimulación de niños con problemas de autismo y aquellos que presentan problemas motrices. En este sentido, Gómez explicó: “Las personas con dificultades auditivas utilizan la lectura de labios para comunicarse con otras personas; por ello, podría emplearse la información acústica transmitida por teléfono para animar, de manera realista, los labios de un modelo virtual, lo que posibilitaría la comprensión del mensaje mediante lectura de labios”.

 

Además, resaltó el investigador, “es posible utilizar la computadora a través de comandos audiovisuales, ya sea mediante la voz, como por medio de expresiones faciales de una persona real. De esta forma, las personas discapacitadas que no puedan utilizar un teclado o un mouse, podrían controlar cualquier aplicación a través de un conjunto de comandos audiovisuales”.

 

Por otra parte, y mediante el uso de “avatars interactivos”, se puede intervenir en el tratamiento y rehabilitación de personas con desórdenes de dicción, utilizando los avatars del paciente hablando correctamente. También, en el trabajo de niños con problemas de autismo. “Si los chicos se ven a sí mismos hablando, pueden estimularse”, resaltó.

 

Los investigadores pertenecen al laboratorio de Sistemas Dinámicos y Procesamiento de la Información, de la Facultad de Ciencias. Exactas, Ingeniería y Agrimensura, así como también al CIFASIS (Centro Franco Argentino de Ciencias de la Información y de Sistemas, dependiente del Conicet). Este trabajo fue presentado en la International Conference on Multimedia & Expo 2011, que se llevó a cabo en Barcelona, España, y ganó el primer premio en el Technicolor Best Student Paper Award.