Las gafas inteligentes han estado tradicionalmente asociadas al ocio: ver películas, jugar o consumir contenido de forma más inmersiva. Sin embargo, el lanzamiento de las nuevas RayNeo Air 4 Pro apunta a algo mucho más relevante: el posible cruce definitivo entre entretenimiento y accesibilidad visual.
Este dispositivo, que a primera vista parece orientado al consumo multimedia, integra tecnologías que podrían tener un impacto directo en personas con baja visión.
Cocinar es una actividad cotidiana, pero para las personas ciegas o con baja visión supone uno de los mayores desafíos del día a día. Manipular cuchillos, identificar ingredientes o detectar superficies calientes implica riesgos constantes y requiere estrategias complejas de adaptación.
Diversos estudios recientes coinciden en que la cocina sigue siendo una de las tareas más difíciles dentro de la vida independiente, especialmente por la necesidad de interpretar información visual en tiempo real, como la posición, el estado o la peligrosidad de los objetos .
En este contexto, en los últimos años han surgido nuevas tecnologías que van más allá de las ayudas tradicionales. Entre ellas destacan dos enfoques innovadores: la realidad aumentada aplicada a la seguridad (como CookAR) y los sistemas de inteligencia artificial que guían el proceso de cocina paso a paso (como AROMA y desarrollos similares).
Photo by UW Makeability Lab via https://github.com/makeabilitylab/CookAR | The Daily Cardinal
En un mundo hiperconectado donde casi toda nuestra comunicación e interacción depende de señales visuales, las personas con discapacidad visual a menudo se enfrentan a barreras invisibles pero muy reales.
En pleno 2026, un grupo de investigadores de la Universidad de Wisconsin Madison está cambiando esa realidad con un enfoque innovador que integra inteligencia artificial, realidad aumentada y herramientas accesibles capaces de transformar la vida cotidiana de quienes viven sin visión o con visión reducida.
El pasado 12 de marzo, la asociación Es Retina llevó a cabo el “Taller SoundScape – Aplicación de guiado GPS para personas ciegas o con baja visión”, una formación especializada impartida por el tiflotecnólogo Iván García Hervás. Este encuentro se posiciona como una iniciativa clave dentro del ámbito de la accesibilidad tecnológica y la autonomía personal.
Aleye | La pulsera háptica para personas con baja visión que traduce expresiones faciales
La comunicación humana está llena de señales invisibles para muchas personas con discapacidad visual. Sonrisas, gestos de sorpresa, miradas de aprobación o incomodidad forman parte del lenguaje no verbal que utilizamos constantemente en las conversaciones.
Ahora, una nueva tecnología presentada en el Consumer Electronics Show (CES) 2026 promete cambiar esta situación: una pulsera háptica capaz de convertir esas expresiones en vibraciones que se sienten en la muñeca.
Para millones de personas con discapacidad visual, desplazarse de forma autónoma por la ciudad sigue siendo uno de los mayores desafíos diarios. Aunque existen tecnologías de apoyo como aplicaciones móviles o sistemas GPS, su precisión suele presentar márgenes de error de varios metros, algo que puede ser crítico cuando se trata de localizar un paso de peatones, una entrada o un cruce concreto.
En este contexto, comienzan a surgir nuevas propuestas tecnológicas que buscan mejorar la orientación en entornos urbanos. Una de ellas es Vector, un dispositivo que apuesta por una navegación basada en el sentido del tacto para ofrecer indicaciones más intuitivas y precisas.
Cada 8 de marzo, Día Internacional de la Mujer, se convierte en una oportunidad para analizar la situación de millones de mujeres que, además de enfrentarse a desigualdades estructurales de género, conviven con una discapacidad visual o baja visión. En España, la perspectiva de género en el ámbito de la discapacidad continúa siendo un reto pendiente en ámbitos como el empleo, la participación social, la accesibilidad digital y el acceso a la tecnología.
La divulgación científica vive un momento de transformación profunda. Ya no basta con comunicar descubrimientos; ahora es imprescindible garantizar que ese conocimiento llegue a todas las personas. En este contexto, el proyecto Astroaccesible, abordado en la iniciativa “Soñando estrellas” del Instituto de Astrofísica de Canarias (IAC), representa un ejemplo inspirador de cómo la ciencia puede y debe ser inclusiva.
La integración de inteligencia artificial (IA) en dispositivos wearables, especialmente smart glasses o gafas inteligentes, está cambiando la vida de millones de personas con ceguera o baja visión. Más allá de prototipos, hoy existen soluciones que convierten el mundo visual en información auditiva o táctil, ayudando a las personas a interpretar su entorno de forma independiente.
Recientemente, uno de los avances más significativos incluye la distribución a usuarios reales de gafas inteligentes de IA que interpretan el entorno mediante sonido, impulsadas por una iniciativa de inclusión en salud pública.
El impacto de la ciencia y la tecnología en la vida de las personas con discapacidad visual va mucho más allá de la innovación por sí misma: implica solidaridad, compromiso social y acceso real a la autonomía diaria. Así lo ejemplifica la historia publicada en El Confidencial, donde una familia desarrolla unas gafas inteligentes para abordar las limitaciones de movilidad de su hijo con baja visión, combinando realidad extendida, inteligencia artificial y procesamiento espacial en tiempo real.
Usamos cookies para asegurar que te damos la mejor experiencia en nuestra web. Si continúas usando este sitio, asumiremos que estás de acuerdo con ello.