Esta mochila impulsada por IA puede ayudar a las personas con discapacidad visual a navegar por el mundo

Esta mochila impulsada por IA puede ayudar a las personas con discapacidad visual a navegar por el mundo

Imagen representativa Crédito de la imagen: Flickr / Ben Churchill


Un equipo de desarrolladores, dirigido por Jagadish K. Mahendran en el Instituto de Inteligencia Artificial de la Universidad de Georgia, ha desarrollado una mochila activada por voz activada por inteligencia artificial que puede ayudar a las personas con discapacidad visual a navegar y percibir el mundo que les rodea.

El sistema de asistencia visual se encuentra dentro de una pequeña mochila que contiene una unidad de computación anfitriona. La unidad informática está conectada a una cámara de inteligencia artificial espacial Luxonis OAK-D que se puede colocar en el chaleco o en la riñonera que contiene una batería de bolsillo que proporciona aproximadamente ocho horas de uso.

La unidad OAK-D está impulsada por Intel Movidius VPU y el kit de herramientas Intel Distribution of OpenVINO para inferencias de inteligencia artificial en el borde del chip y es capaz de ejecutar redes neuronales avanzadas al tiempo que proporciona funciones de visión por computadora aceleradas, mapa de profundidad en tiempo real de su par estéreo y información de color de una sola cámara de 4k.

'Es increíble ver a un desarrollador llevar la tecnología de inteligencia artificial de Intel al límite y construir rápidamente una solución para hacer la vida de sus amigos más fácil. La tecnología existe; solo estamos limitados por la imaginación de la comunidad de desarrolladores ”, dijo Hema Chamraj, director de Defensa de la Tecnología y AI4Good en Intel.


Crédito de imagen: Intel / YouTube

Con un auricular con Bluetooth, los usuarios pueden interactuar con el sistema mediante consultas y comandos de voz, y el sistema responde con información verbal. A medida que el usuario se mueve, la mochila ayuda a detectar desafíos comunes como señales de tráfico, obstáculos colgantes, cruces peatonales, objetos en movimiento y elevaciones cambiantes.


“El año pasado, cuando me encontré con un amigo con discapacidad visual, me llamó la atención la ironía de que, aunque he estado enseñando a los robots a ver, hay muchas personas que no pueden ver y necesitan ayuda. Esto me motivó a construir el sistema de asistencia visual con el Kit de Inteligencia Artificial con Profundidad (OAK-D) de OpenCV, impulsado por Intel ”, dijo el desarrollador Jagadish K. Mahendran.

Según la Organización Mundial de la Salud (OMS), al menos 2,2 mil millones de personas personas de todo el mundo tienen una discapacidad visual de cerca o de lejos. Soluciones como la mochila impulsada por IA pueden facilitarles la vida ayudándoles a navegar y percibir el mundo que los rodea.