Investigadores de Penn State han desarrollado una aplicación llamada NaviSense que está cambiando la vida de las personas con discapacidad visual. Esta herramienta utiliza inteligencia artificial (IA) para localizar objetos en tiempo real mediante comandos de voz y guiar a los usuarios hacia ellos usando señales auditivas espaciales y vibraciones del teléfono.
El funcionamiento es sencillo pero revolucionario: la app emplea la cámara del teléfono para detectar objetos y traduce esa información en indicaciones sonoras. Si un usuario busca su mochila, por ejemplo, solo tiene que pedirlo en voz alta, y NaviSense le indicará si está a la izquierda, derecha, arriba o abajo. Cuando el usuario extiende la mano hacia el objeto, la app confirma con una señal de “¡atino!” cuando está en el lugar correcto. Además, adapta su uso instantáneamente a diferentes entornos como cocinas, aceras o tiendas.
Según el sitio web Digital Trends, NaviSense supera estas barreras al conectarse a un servidor externo con modelos de IA que reconocen objetos sin necesidad de entrenamiento previo. Esto podría dar mayor independencia a quienes tienen discapacidad visual y hacer que la tecnología sea más accesible.
TE PUEDE INTERESAR: Snapdragon 8 Gen 5: el nuevo chip de Qualcomm que equilibra potencia y accesibilidad
Qué debes saber
- La app rastrea la posición de los objetos a tu alrededor usando una entrada de sensor de cámara.
- Traduce la información espacial en señales sonoras para guiar a los usuarios hacia el objeto.
- Como NaviSense funciona en tiempo real, no requiere una configuración larga ni marcación manual de objetos.
- Diseñado para ayudar a usuarios con discapacidad visual a moverse con mayor seguridad en espacios interiores y exteriores.
Contenido generado con IA y editado por el equipo editorial.
Foto: Penn State.