La integración de inteligencia artificial (IA) en dispositivos wearables, especialmente smart glasses o gafas inteligentes, está cambiando la vida de millones de personas con ceguera o baja visión. Más allá de prototipos, hoy existen soluciones que convierten el mundo visual en información auditiva o táctil, ayudando a las personas a interpretar su entorno de forma independiente.
Recientemente, uno de los avances más significativos incluye la distribución a usuarios reales de gafas inteligentes de IA que interpretan el entorno mediante sonido, impulsadas por una iniciativa de inclusión en salud pública.
Gafas inteligentes con IA para personas ciegas o con baja visión
Las smart glasses diseñadas para accesibilidad visual son dispositivos wearables que combinan cámaras y sensores para capturar el entorno, inteligencia artificial para procesar escenas, objetos y texto, salida auditiva o háptica (sonido o vibraciones) que informan al usuario sobre lo que ocurre alrededor además de interacción manos libres mediante voz.
El objetivo es traducir señales visuales en información comprensible para personas que no pueden ver: objetos, obstáculos, textos, señales o personas cercanas.
Distribución de smart glasses en India
En los últimos días, el prestigioso All India Institute of Medical Sciences (AIIMS) ha entregado gafas inteligentes con IA a 53 personas ciegas o con baja visión, un programa piloto que marca un hito en el uso de esta tecnología a nivel social.
¿Qué hacen estas gafas?
Interpretan el entorno visual usando IA. Convierten lo que “ven” cámaras en audio, permitiendo al usuario escuchar información sobre objetos y obstáculos y facilitan movilidad independiente sin necesidad de bastón o perro guía.
Este tipo de dispositivos no solo mejora la autonomía individual, sino que también refuerza la inclusión tecnológica en políticas sociales y de salud.
Cómo funciona la conversión de “visión a sonido”
La tecnología detrás de estas gafas combina varios componentes: procesamiento con IA: Modelos de IA analizan la imagen para reconocer objetos y personas, detectar obstáculos y trayectorias además de leer textos, señales y carteles.
Estos sistemas pueden incluso integrarse con modelos avanzados de lenguaje para contextualizar información compleja.
La IA genera descripciones auditivas que se reproducen al usuario, como un narrador que describe la escena, permitiendo “ver” sin ojos.
Dispositivos y proyectos relacionados
Además del programa de AIIMS, existen varios proyectos y soluciones comerciales o en desarrollo como las gafas Envision con IA accesible, que ofrecen reconocimiento de texto y objetos en tiempo real con salida de voz. Permiten acciones como leer documentos, identificar personas o describir escenas cotidianas.
Investigaciones como LLM-Glasses exploran gafas que combinan IA con señales táctiles (vibración) para guiar a los usuarios, especialmente útil en navegación urbana.
Aunque algunas gafas AR/VR comerciales como ciertos modelos de Meta o Ray‑Ban tienen funciones de IA que pueden ayudar a personas con baja visión, no están diseñadas específicamente para accesibilidad al contrario que este nuevo dispositivo.
Limitaciones actuales a considerar
Costo y disponibilidad: no todos los modelos son asequibles o están distribuidos globalmente.
Necesidad de conectividad o carga frecuente: algunos dispositivos dependen de procesamiento en la nube o requieren recargas frecuentes.
Precisión variable en entornos complejos: si bien la IA ha avanzado, aún puede cometer errores en escenas saturadas o con condiciones difíciles.
La investigación sugiere que tecnologías aún más avanzadas están en camino, como IA combinada con retroalimentación háptica y modelos de lenguaje capaces de contextualizar escenarios complejos. Esto podría permitir no solo describir, sino interpretar activamente situaciones en tiempo real para usuarios visualmente impedidos.
FUENTES CONSULTADAS: EconomicTimes, LetsenVision, Cornell University.
