
La comunicación humana está llena de señales invisibles para muchas personas con discapacidad visual. Sonrisas, gestos de sorpresa, miradas de aprobación o incomodidad forman parte del lenguaje no verbal que utilizamos constantemente en las conversaciones.
Ahora, una nueva tecnología presentada en el Consumer Electronics Show (CES) 2026 promete cambiar esta situación: una pulsera háptica capaz de convertir esas expresiones en vibraciones que se sienten en la muñeca.
Esta innovación combina inteligencia artificial, visión por ordenador y tecnología háptica, tres campos que están revolucionando la tiflotecnología en los últimos años.
El dispositivo, llamado Aleye haptic wristband, ha sido desarrollado por la startup HapWare y busca ofrecer a las personas ciegas o con baja visión una forma completamente nueva de interpretar las emociones y gestos de quienes les rodean.
El dispositivo convierte las emociones en vibraciones
El sistema funciona mediante una combinación de dispositivos. Por un lado, unas gafas inteligentes capturan vídeo de la persona con la que el usuario está hablando. Ese vídeo se envía a una aplicación que analiza la imagen mediante algoritmos de visión artificial capaces de detectar expresiones faciales, gestos y lenguaje corporal.
Una vez identificada la emoción o el gesto, la información se transmite a la pulsera, que genera patrones de vibración específicos en la muñeca. Cada patrón corresponde a una expresión o señal social concreta, como una sonrisa, sorpresa o saludo con la mano.
La idea es que, con un breve periodo de aprendizaje, el usuario pueda reconocer rápidamente qué significa cada vibración. Según los desarrolladores, en las primeras pruebas muchos participantes aprendieron a distinguir varios patrones en cuestión de minutos.
Cómo funciona la tecnología háptica
La clave de este dispositivo está en la tecnología háptica, un sistema que utiliza vibraciones o estímulos táctiles para transmitir información a través del tacto.
En la parte interior de la pulsera se encuentran pequeños actuadores que generan diferentes tipos de vibración.
Estas vibraciones pueden variar en intensidad, ritmo, dirección y duración, combinando estos factores, el sistema puede crear “lenguajes táctiles” complejos capaces de transmitir información de forma rápida y discreta.
Por ejemplo, los desarrolladores han intentado diseñar patrones intuitivos. Un gesto de sorpresa genera una vibración breve y repentina, mientras que un saludo se siente como un movimiento lateral.
Este enfoque permite recibir información sin necesidad de escuchar audio ni interrumpir la conversación.
Inteligencia artificial para interpretar gestos
El análisis de las expresiones faciales se realiza mediante algoritmos de inteligencia artificial que procesan el vídeo captado por las gafas inteligentes.
En el prototipo presentado en el CES, el sistema se integra con las gafas Ray‑Ban Meta Smart Glasses, que cuentan con cámaras y capacidades de procesamiento para capturar el entorno visual.
Los datos se envían a una aplicación móvil que identifica expresiones faciales, gestos de las manos, lenguaje corporal y señales emocionales Después, la aplicación traduce esta información a señales hápticas que se transmiten en tiempo real a la pulsera.
Además, el sistema permite configurar qué señales quiere detectar el usuario. De esta forma, cada persona puede adaptar el dispositivo a sus necesidades.
Más allá de la discapacidad visual
Aunque el desarrollo se centra principalmente en personas ciegas o con baja visión, los creadores del sistema creen que también podría beneficiar a otros colectivos.
Entre los posibles usuarios se encuentran personas con autismo, personas con dificultades para interpretar señales sociales y personas con sordoceguera parcial.
El objetivo es ofrecer una herramienta que facilite la comunicación interpersonal en situaciones cotidianas, desde conversaciones informales hasta reuniones de trabajo.
Según sus desarrolladores, la tecnología pretende hacer visible, o más bien tangible, una parte fundamental de la comunicación humana: las emociones no verbales.
Precio y disponibilidad del dispositivo
Tras su presentación en el CES 2026, la empresa comenzó a aceptar reservas anticipadas del dispositivo.
El precio inicial de la pulsera se sitúa alrededor de 359 dólares, aunque para utilizar el sistema completo es necesario contar también con las gafas inteligentes y una suscripción a la aplicación que procesa la información visual.
Aun así, el dispositivo todavía se encuentra en una fase temprana de desarrollo, por lo que es probable que evolucione antes de llegar al mercado masivo.
El futuro de la comunicación accesible
La pulsera Aleye forma parte de una nueva generación de tecnologías que buscan transformar la forma en que las personas ciegas interactúan con el mundo.
Durante los últimos años, la tiflotecnología ha avanzado rápidamente gracias a la combinación de inteligencia artificial, sensores avanzados, dispositivos portátiles e interfaces hápticas.
Mientras que muchas herramientas actuales describen el entorno mediante audio, este tipo de soluciones exploran el tacto como un nuevo canal de información, permitiendo recibir datos sin saturar el oído.
Si estos sistemas continúan evolucionando, es posible que en el futuro las personas con discapacidad visual puedan acceder a aspectos de la comunicación que hasta ahora dependían casi exclusivamente de la vista.
Quizá, gracias a tecnologías como esta, algo tan cotidiano como sentir una sonrisa deje de ser una metáfora.
FUENTES: ObNews, TechStars, Engadget, Centre For Accesibility.
Si te ha gustado esta noticia no te pierdas las últimas novedades en tiflotectnología en nuestro apartado de noticias y redes sociales.
