Las gafas inteligentes han estado tradicionalmente asociadas al ocio: ver películas, jugar o consumir contenido de forma más inmersiva. Sin embargo, el lanzamiento de las nuevas RayNeo Air 4 Pro apunta a algo mucho más relevante: el posible cruce definitivo entre entretenimiento y accesibilidad visual.
Este dispositivo, que a primera vista parece orientado al consumo multimedia, integra tecnologías que podrían tener un impacto directo en personas con baja visión.
Cocinar es una actividad cotidiana, pero para las personas ciegas o con baja visión supone uno de los mayores desafíos del día a día. Manipular cuchillos, identificar ingredientes o detectar superficies calientes implica riesgos constantes y requiere estrategias complejas de adaptación.
Diversos estudios recientes coinciden en que la cocina sigue siendo una de las tareas más difíciles dentro de la vida independiente, especialmente por la necesidad de interpretar información visual en tiempo real, como la posición, el estado o la peligrosidad de los objetos .
En este contexto, en los últimos años han surgido nuevas tecnologías que van más allá de las ayudas tradicionales. Entre ellas destacan dos enfoques innovadores: la realidad aumentada aplicada a la seguridad (como CookAR) y los sistemas de inteligencia artificial que guían el proceso de cocina paso a paso (como AROMA y desarrollos similares).
Photo by UW Makeability Lab via https://github.com/makeabilitylab/CookAR | The Daily Cardinal
En un mundo hiperconectado donde casi toda nuestra comunicación e interacción depende de señales visuales, las personas con discapacidad visual a menudo se enfrentan a barreras invisibles pero muy reales.
En pleno 2026, un grupo de investigadores de la Universidad de Wisconsin Madison está cambiando esa realidad con un enfoque innovador que integra inteligencia artificial, realidad aumentada y herramientas accesibles capaces de transformar la vida cotidiana de quienes viven sin visión o con visión reducida.
Aleye | La pulsera háptica para personas con baja visión que traduce expresiones faciales
La comunicación humana está llena de señales invisibles para muchas personas con discapacidad visual. Sonrisas, gestos de sorpresa, miradas de aprobación o incomodidad forman parte del lenguaje no verbal que utilizamos constantemente en las conversaciones.
Ahora, una nueva tecnología presentada en el Consumer Electronics Show (CES) 2026 promete cambiar esta situación: una pulsera háptica capaz de convertir esas expresiones en vibraciones que se sienten en la muñeca.
En 2026 la inteligencia artificial sigue cruzando fronteras que hasta hace poco parecían futuristas: no solo interpreta imágenes, sino que las transforma en información útil para personas con discapacidad visual.
Más allá de proyectos aislados, surge un mosaico tecnológico integrado por AI mirrors, aplicaciones móviles inteligentes y dispositivos portátiles, todos con un objetivo común: mejorar la autonomía y la calidad de vida de quienes tienen ceguera o baja visión.
Funcionamiento del sistema. Fuente de la imagen: LatinUS
La tecnología permite que aficionados ciegos disfurten la Super Bowl, rompiendo una de las mayores barreras históricas del deporte espectáculo. Gracias a nuevos dispositivos táctiles y sistemas de audio sincronizados en tiempo real, personas con ceguera y baja visión pueden seguir el desarrollo del partido, comprender las jugadas y vivir la emoción del evento deportivo más seguido del mundo de una forma mucho más autónoma e inclusiva.
La tecnología sigue avanzando en el camino hacia una accesibilidad real y efectiva, y PiccyBot se ha consolidado como una de las herramientas más innovadoras en el ámbito de la inclusión digital para personas ciegas o con baja visión.
Esta aplicación, disponible para dispositivos móviles, utiliza inteligencia artificial avanzada para analizar imágenes y vídeos y transformarlos en descripciones comprensibles, tanto en texto como en audio, permitiendo a los usuarios interpretar de forma autónoma contenidos visuales que hasta ahora resultaban inaccesibles.
En el ámbito de la tecnología cotidiana existe un diálogo creciente sobre cómo los dispositivos innovadores pueden facilitar la vida de las personas con discapacidad visual o baja visión. Recientemente, en el programa de radio Cruce de Cables de RTVE, Carol Denia dedicó parte de la emisión a destacar gadgets y herramientas tecnológicas diseñados o adaptados para cubrir necesidades específicas de este colectivo, poniendo de relieve la importancia de integrar la accesibilidad desde el diseño y no como una mera adaptación posterior.
Te invitamos a participar en la primera sesión online del ciclo “Las gafas META y la discapacidad visual”, que se celebrará el día 9 de octubre.
Será un encuentro online donde descubrirás cómo la tecnología inmersiva y las gafas inteligentes de META pueden ayudarte a ganar autonomía y mejorar tu calidad de vida si convives con una discapacidad visual.
En el centro de la imagen se puede ver las letras AI metidas dentro del contorno de un cerebro en blanco del que salen flechas con diferentes elementos como por ejemplo: un coche, una casa, el símbolo $, un carrito de la compra, una fabrica, un panel solar, un ordenador…
Hoy, las marcas, empresas y organizaciones tienen la oportunidad —y la responsabilidad— de utilizar esta tecnología no solo para innovar, sino para incluir. Crear contenidos accesibles ya no es solo una obligación legal o un detalle técnico; es un acto de compromiso con la equidad.
Usamos cookies para asegurar que te damos la mejor experiencia en nuestra web. Si continúas usando este sitio, asumiremos que estás de acuerdo con ello.