Categorías
Aplicaciones iPhone Tiflotecnología

Apple presenta nuevas funciones de accesibilidad.

logo appleHa presentado cuatro herramientas destacadas: Acceso asistido, para usuarios con discapacidades cognitivas; Live Speech, orientada a personas con dificultades de habla; Personal Voice, para crear una voz sintetizada y utilizarla en comunicación con otras personas; y Point and Speak, una herramienta identifica texto y lo lee en voz alta para ayudar a los usuarios a interactuar con objetos físicos.

Se trata de innovaciones que llegarán a los usuarios a finales de año y que pretenden profundizar en la ambición de Apple de fabricar dispositivos para todo el mundo.

“La accesibilidad es parte de todo lo que hacemos en Apple”, ha apuntado Sarah Herrlinger, Directora Senior de Políticas e Iniciativas de Accesibilidad Global de Apple, en un comunicado. “Estas funciones innovadoras se diseñaron con los comentarios de los miembros de las comunidades de personas con discapacidad en cada paso del camino, para apoyar a un conjunto diverso de usuarios y ayudar a las personas a conectarse de nuevas maneras”.

Acceso asistido

Esta nueva funcionalidad se ha apoyado en el diseño para destacar las características esenciales de algunas aplicaciones básicas de iOS con el objetivo de aligerar la carga cognitiva. Se trata, en definitiva, de versiones simplificadas de determinadas apps -Llamadas, Mensajes, Cámara, Fotos y Música- que ofrecen una interfaz distinta con botones de alto contraste y etiquetas de texto grandes, así como la opción de elegir entre un diseño más visual basado en cuadrículas o un diseño basado en filas para los usuarios que prefieren el texto.

Live Speech

Live Speech, disponible en iPhone, iPad y Mac, permitirá que los usuarios con dificultades para el habla escriban lo que quieren comunicar para que el sistema lo reproduzca en voz alta durante llamadas telefónicas o videollamadas por FaceTime, así como en conversaciones presenciales. Además, brindará la posibilidad de registrar frases de uso habitual para intervenir rápidamente en los diálogos.

Personal Voice

Apple ha desarrollado esta herramienta pensando en personas en riesgo de perder la capacidad de hablar, como pacientes de ELA u otras afecciones. Personal Voice clona la voz de los usuarios para que suene como ellos y puedan utilizarla en el supuesto de que finalmente pierdan la voz.

Según ha explicado la tecnológica, los usuarios pueden crear su voz personal leyendo junto indicaciones de texto aleatorias para grabar 15 minutos de audio en iPhone o iPad. Gracias al aprendizaje automático y a su integración con Live Speech, el sistema es capaz de generar conversaciones con esa voz de tal forma que los usuarios podrán “hablar” cuando se comuniquen con otras personas.

Point and Speak

La función Point and Speak facilitará que los usuarios con discapacidad visual interactúen con objetos físicos que cuenten etiquetas de texto. Lo hará combinando la cámara de los dispositivos, con escáner LiDAR y aprendizaje automático para anunciar con voz el texto de cada botón a medida que los usuarios mueven el dedo por encima de las etiquetas. La herramienta estará integrada en la aplicación Magnifier en iPhone y iPad, y se podrá usar con otras funciones de Magnifier.

Otras funcionalidades

Además, Apple ha dado a conocer tras funcionalidades o características adicionales que se incluirán en las herramientas ya existentes. Por ejemplo, los usuarios podrán personalizar la velocidad a la que Siri les habla, con opciones que van desde 0,8x hasta 2x; mientras que Voice Control agregará sugerencias fonéticas en la edición de texto para que los usuarios que escriben con su voz puedan elegir la palabra correcta entre varias que pueden sonar parecidas.

Más información en la fuente oficial de la noticia:  https://www.reasonwhy.es/actualidad/apple-nuevas-funcionalidades-accesibilidad-personal-voice-clonar-voz

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

18 + 18 =