En el grupo de investigación de la Universidad de Alicante, Mobile Vision Research Lab, dirigido por Miguel Ángel Lozano Ortega y con Juan Manuel Sáez Martínez y Francisco Escolano Ruiz en el equipo, dentro del Proyecto I+D de Sistema de guia para invidentes basado en visión y dispositivos móviles, se ha venido trabajando en la aplicación para teléfonos de última generación en la detección de objetos aéreos (DOA) para facilitar la deambulación de personas con problemas de visión.
Así cuando un ciego camina con su perro-guía y se acerca a un árbol cuyas ramas cruzan su trayectoria puede ser asistido por esta tecnología que le avisaría de la existencia de esa rama, evitando que colisione contra ella. La aplicación se encarga de avisar de los obstáculos mediante señales acústicas (a través del altavoz del teléfono, no a través de auriculares) o vibraciones, lo que hace que el sistema sea aún más discreto, ya que sólo el usuario percibe el aviso y no le priva de la audición, sentido principal para un ciego.
Entre los dispositivos utilizables se encuentran los denominados “teléfonos 3D” dotados con doble cámara frontal, así como cualquier teléfono móvil con una sola cámara que incorpore un sistema que permita obtener dos observaciones del entorno separadas. La aplicación aprovecha también los datos de algunos sensores comunes en ellos, como es el magnetómetro y el acelerómetro.
Los creadores de este sistema destacan que esta tecnología es tremendamente novedosa dentro del mundo de los teléfonos móviles, ya que hasta el momento no eran capaces de tomar medidas reales del entorno, mientras que esta aplicación extrae del orden de 30.000 medidas por cada frame, a razón de 9 frames por segundo.
Esa tecnología ha sido galardonada por la Fundación Vodafone en la séptima edición de sus galardones a la innovación, en la modalidad “Aplicación Mobile for Good“.