
En un mundo hiperconectado donde casi toda nuestra comunicación e interacción depende de señales visuales, las personas con discapacidad visual a menudo se enfrentan a barreras invisibles pero muy reales.
En pleno 2026, un grupo de investigadores de la Universidad de Wisconsin Madison está cambiando esa realidad con un enfoque innovador que integra inteligencia artificial, realidad aumentada y herramientas accesibles capaces de transformar la vida cotidiana de quienes viven sin visión o con visión reducida.
Una visión diferente sobre la accesibilidad
El MadAbility Lab, dirigido por la profesora Yuhang Zhao y su equipo, no se limita a mejorar herramientas existentes: su objetivo es reimaginar cómo las tecnologías pueden responder realmente a las necesidades de cada usuario con discapacidad visual.
Mientras que muchas ayudas actuales (como lectores de pantalla o ampliadores visuales) intentan compensar la falta de visión con señales auditivas o táctiles, MadAbility va más allá: sus desarrollos buscan integrar la preferencia de cada persona, su contexto y la naturaleza de su visión residual para ofrecer soluciones personalizadas y adaptativas.
Yuhang Zhao lo resume así:
“No pensamos en la tecnología solo como una ayuda; la concebimos como una colaboradora activa con el usuario.”
Herramientas modulables: AllyBits
Uno de los desarrollos más interesantes del laboratorio es AllyBits, un kit modular que permite a cada persona construir su propia tecnología de apoyo.
¿Cómo funciona?
El kit incluye varios módulos sensores (como movimiento, voz, tiempo o temperatura) y módulos de retroalimentación (auditiva, visual o vibratoria).
Estos componentes actúan como piezas de LEGO: se combinan según lo que cada usuario necesite.
Por ejemplo, alguien que pierde información ambiental rápidamente podría combinar un sensor de movimiento con un módulo de audio para recibir alertas en función de cómo se mueve por espacios dinámicos.
Además, para ayudar a quienes no tienen experiencia técnica, el laboratorio ha desarrollado una IA asistente que guía a las personas para saber qué módulos combinar según sus objetivos.
Tecnología que se construye con la comunidad
Otro aspecto relevante del trabajo de MadAbility es que no se queda en el laboratorio, el equipo tiene planes para organizar talleres presenciales y pruebas donde la comunidad de personas ciegas y con baja visión pueda:
- Probar prototipos.
- Dar retroalimentación directa.
- Influir en futuras mejoras de las herramientas.
Este enfoque participativo asegura que las soluciones creadas no sean idealizadas, sino prácticas y útiles en la vida real.
Un futuro colaborativo entre personas y máquinas
La labor de MadAbility es también un ejemplo claro de cómo la IA no debe reemplazar a las personas, sino potenciar su autonomía.
Las tecnologías que desarrollan están diseñadas para entender mejor lo que cada usuario necesita y ofrecer respuestas que tengan sentido en contextos reales, desde actividades diarias hasta tareas complejas como cocinar o moverse en espacios desconocidos.
Mientras las herramientas convencionales muchas veces tratan a todos por igual, los proyectos de este laboratorio celebran la diversidad de experiencias visuales y buscan adaptar la tecnología a ellas.
El MadAbility Lab está marcando una diferencia en 2026 al transformar la accesibilidad digital en una experiencia personalizada y colaborativa, donde IA, realidad aumentada y diseño modular trabajan juntos para crear herramientas que se adaptan a la vida real y a las necesidades únicas de cada persona con discapacidad visual.
Si te ha gustado esta noticia no te pierdas las últimas novedades en tiflotecnología en nuestro apartado de noticias y en nuestras redes sociales.
FUENTES CONSULTADAS: The Daily Cardinal, Mad Ability.
