Categorías
Accesibilidad Actualidad Baja Visión IA Tecnología Tiflotecnología

Nuevas gafas con GPT-4o y vibraciones en las sienes para personas con baja visión

Plano detalle de un chico llevando unas gafas de sol con una cámara integrada.
Baidu unveils LLM smart glasses and new image generator

La inteligencia artificial aplicada a la accesibilidad visual está entrando en una nueva etapa. Un grupo de investigadores ha presentado “LLM-Glasses”, un prototipo de gafas inteligentes que utiliza GPT-4o, detección de objetos en tiempo real y señales hápticas en las sienes para ayudar a personas con discapacidad visual a desplazarse sin depender constantemente de instrucciones de voz.

El proyecto, desarrollado por investigadores del Skolkovo Institute of Science and Technology y presentado en la ACM/IEEE International Conference on Human-Robot Interaction 2026, propone una idea que cada vez gana más fuerza dentro de la tiflotecnología moderna: sustituir parte del audio por sensaciones táctiles intuitivas.

Cómo funcionan las LLM-Glasses

Las gafas incorporan una pequeña cámara ESP32-CAM que analiza el entorno del usuario en tiempo real. El sistema utiliza YOLO-World, un modelo de detección de objetos basado en visión artificial, para identificar obstáculos, personas y elementos del entorno. Después, GPT-4o interpreta esa información y genera instrucciones de navegación simplificadas.

La diferencia respecto a otros asistentes para personas ciegas es la forma de transmitir las órdenes. En lugar de depender continuamente de auriculares o mensajes hablados, las LLM-Glasses utilizan pequeños actuadores hápticos situados en las patillas de las gafas. Estos dispositivos generan patrones de vibración y movimientos táctiles sobre las sienes del usuario.

Por ejemplo, una vibración concreta puede indicar un giro, mientras que otra puede alertar de un obstáculo cercano. El objetivo es que la persona pueda seguir percibiendo sonidos importantes del entorno, como tráfico, conversaciones o señales acústicas urbanas.

Durante años, gran parte de la tiflotecnología se ha basado en audio. Aplicaciones móviles, lectores de pantalla y asistentes de navegación utilizan voz sintetizada para transmitir información. Sin embargo, distintos equipos de investigación consideran que el exceso de instrucciones habladas puede aumentar la carga cognitiva y dificultar la orientación en entornos complejos.

El auge de los sistemas hápticos intenta resolver ese problema. Las vibraciones permiten enviar información rápida y discreta sin bloquear el canal auditivo. Esta tendencia está empezando a aparecer también en nuevas generaciones de gafas inteligentes y dispositivos wearables centrados en accesibilidad.

En el caso de LLM-Glasses, los investigadores probaron 13 patrones táctiles distintos y lograron una tasa media de reconocimiento del 81,3 % entre participantes. Además, el sistema alcanzó precisiones superiores al 90 % en escenarios sin obstáculos y mantuvo resultados elevados incluso en entornos con objetos estáticos y dinámicos.

GPT-4o y la nueva generación de gafas inteligentes

La aparición de modelos multimodales como GPT-4o está acelerando el desarrollo de dispositivos de asistencia visual más avanzados. Estos sistemas ya no se limitan a describir imágenes, sino que pueden interpretar escenas completas, comprender contexto y generar respuestas adaptadas a cada situación.

Esto abre la puerta a gafas inteligentes capaces de actuar como asistentes visuales permanentes. En lugar de simplemente anunciar objetos detectados, la IA puede priorizar información relevante y ofrecer indicaciones más naturales para la movilidad diaria.

Además, varios expertos consideran que la combinación de inteligencia artificial, visión artificial y feedback háptico podría convertirse en una de las áreas más importantes de innovación dentro de la accesibilidad durante los próximos años.

Aún es un prototipo, pero apunta hacia el futuro de la tiflotecnología

Aunque las LLM-Glasses todavía se encuentran en fase experimental y las pruebas se han realizado en entornos controlados, el proyecto refleja hacia dónde se dirige la accesibilidad tecnológica. El objetivo ya no es únicamente “leer” información al usuario, sino crear sistemas más intuitivos, rápidos y menos invasivos.

El concepto de recibir instrucciones mediante pequeñas sensaciones táctiles directamente en la cabeza puede parecer futurista, pero cada vez más investigaciones están explorando esta vía como alternativa al audio constante. Si estas tecnologías continúan evolucionando, las futuras ayudas para personas ciegas podrían ser mucho más discretas, naturales y cómodas de utilizar en el día a día.

Si te ha gustado esta noticia no te pierdas las últimas novedades en tiflotectnología en nuestro apartado de noticias y redes sociales.

FUENTES: ArxivDL.ACMTechRxiv.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

dieciocho + dieciocho =