Apple potencia la accesibilidad: nuevas funciones para personas con discapacidad visual y auditiva

Apple potencia la accesibilidad: nuevas funciones para personas con discapacidad visual y auditiva

Apple ha anunciado una amplia batería de mejoras en su ecosistema con el objetivo de hacer sus dispositivos más accesibles para todas las personas. A finales de 2025, el iPhone, el iPad, el Mac, el Apple Watch y las gafas de realidad mixta Apple Vision Pro incorporarán funcionalidades diseñadas especialmente para quienes viven con discapacidad visual o auditiva. Estas innovaciones van más allá de los ajustes básicos de contraste o tamaño de letra; utilizan inteligencia artificial, conectividad entre dispositivos y un profundo enfoque de diseño universal para describir el entorno, ampliar el texto, ofrecer subtítulos en vivo y transformar pantallas braille.

En este artículo, empático e informativo, hablaremos en detalle cada una de las nuevas herramientas de accesibilidad de Apple, cómo pueden transformar la experiencia de uso y qué implicaciones tienen para la autonomía y la inclusión de las personas con discapacidad.

Funciones innovadoras para personas con discapacidad visual

La apuesta de Apple por la accesibilidad visual incluye desde mejoras en realidad mixta hasta un sistema braille integrado en todo el ecosistema. Con visionOS en las Apple Vision Pro, la compañía amplía las posibilidades de interacción con el entorno y facilita el acceso a la información para quienes tienen baja visión o ceguera.

Ampliación de imagen y descripción del entorno en Apple Vision Pro

Gracias a la tecnología de cámaras de alta resolución y al software de visión por computadora, las Apple Vision Pro permitirán hacer zoom en el entorno real para observar con mayor detalle objetos, señales y texto impreso. Este modo de ampliación funciona de manera fluida, sin que la persona tenga que apuntar manualmente con el dispositivo: basta con centrar la mirada en la zona de interés para que la interfaz active el zoom de forma automática.

Por otra parte, la función de Reconocimiento en Vivo de visionOS se apoya en inteligencia artificial para describir el entorno al usuario. Al enfocar una mesa de trabajo, el sistema puede identificar objetos cotidianos (teléfono, libro, vaso) y vocalizar su presencia y posición. De igual forma, es capaz de leer fragmentos de texto en documentos, menús o carteles, proporcionando una descripción hablada o transcrita en pantalla. Esta herramienta resulta especialmente útil en situaciones no planificadas, como la lectura de un folleto en un punto de información o la identificación de productos en una vitrina.

Braille Access: el ecosistema Apple como anotador braille

Una de las novedades más potentes es Braille Access, que convierte el iPhone, el iPad, el Mac e incluso las Vision Pro en anotadores braille totalmente integrados. Mediante Braille Screen Input, la persona puede abrir cualquier aplicación del dispositivo directamente desde un teclado braille virtual. Además, es posible conectar un dispositivo braille físico (por Bluetooth o USB) y utilizar Nemeth Braille para realizar cálculos matemáticos o científicos en tiempo real.

Braille Access también da acceso a archivos en formato BRF (Braille Ready Format), lo que abre la puerta a una biblioteca digital de libros, documentos y apuntes académicos preparados en formato braille. La función de subtítulos en vivo amplía esta experiencia: mientras la persona escucha una conversación o una clase por videollamada, las palabras se transcriben instantáneamente en la línea braille, garantizando una experiencia de aprendizaje y comunicación simultánea.

Imagínese a un estudiante de ciencias que participa en una clase virtual de matemáticas. Con Nemeth Braille puede teclear ecuaciones complejas en su iPad y, al mismo tiempo, seguir las explicaciones del profesor a través de los subtítulos en su pantalla braille. Esta combinación de cálculos y lectura simultánea brinda una sensación de autonomía y eficiencia sin precedentes.

Lector de Accesibilidad: lecturas a medida

Para personas con dislexia, baja visión o dificultades de concentración, Apple ha creado el Lector de Accesibilidad, un modo de lectura que personaliza completamente la forma en que se presenta el texto. Disponible en iPhone, iPad, Mac y Vision Pro, este lector permite ajustar el tamaño de fuente, el tipo de letra, el espaciado entre líneas y el contraste de color de fondo y texto.

El Lector de Accesibilidad puede iniciarse desde cualquier aplicación, ya sea un libro electrónico, un artículo web o un documento PDF. Está integrado en la app Lupa de iOS, iPadOS y macOS, de modo que al apuntar la cámara a un texto impreso —por ejemplo, la carta de un restaurante o las instrucciones de un manual— la persona puede activar inmediatamente el lector y acceder a una versión digital y optimizada para su confort visual. Además, ofrece la opción de reproducción de voz, de forma que el texto se lea en voz alta con claridad y naturalidad.

Lupa en Mac: ampliar y enfocar desde el escritorio

La función de lupa, antes exclusiva de iPhone y iPad, llega ahora a los ordenadores Mac. Con ella es posible utilizar la cámara integrada o una cámara externa conectada (ya sea del iPhone o un dispositivo USB) para ampliar cualquier elemento del entorno físico, incluyendo pantallas externas, pizarras o documentos impresos. Al seleccionar el modo Vista de Escritorio, la lupa muestra la imagen ampliada en una ventana flotante, que se puede mover, redimensionar y ajustar en tiempo real. Esto facilita el trabajo de oficina, la lectura de notas escritas a mano y la supervisión de presentaciones presenciales.

Mejoras auditivas y subtítulos en tiempo real

Las innovaciones de Apple no se limitan a la visión. Para quienes tienen discapacidad auditiva o dificultad para seguir conversaciones en ambientes ruidosos, la empresa ha potenciado Live Listen, una función que convierte el iPhone en un micrófono remoto.

Cuando Live Listen está activado, el sonido captado por el iPhone se transmite directamente a los AirPods, a audífonos compatibles con el programa “Made for iPhone” o a auriculares Beats. Esto permite escuchar con mayor claridad lo que ocurre cerca del equipo, incluso si la persona se encuentra a cierta distancia de la fuente de sonido.

Control desde el Apple Watch y subtítulos en la muñeca

La gran novedad es que Live Listen se controla ahora desde el Apple Watch. La persona puede iniciar o detener la sesión con un toque en la pantalla del reloj y usar la corona digital para retroceder y repetir fragmentos de conversación que ha podido perder. Este control remoto resulta especialmente útil en reuniones, clases o eventos en los que desplazarse hasta el iPhone sería incómodo o inadecuado.

Además, el Apple Watch muestra subtítulos en tiempo real de lo que se está diciendo cerca del micrófono. Así, mientras el iPhone capta y amplifica el sonido, las palabras aparecen escritas en la pantalla del reloj, ofreciendo una experiencia de comunicación más completa. Para quienes utilizan los AirPods Pro 2, Apple añade una opción de procesamiento auditivo de grado clínico, con filtros personalizados que optimizan aún más la intensidad y la claridad de la voz humana.

Etiquetas de accesibilidad en la App Store

Más allá del hardware y el sistema operativo, Apple también ha tomado medidas para facilitar la búsqueda de aplicaciones y juegos accesibles. La App Store incluirá nuevas etiquetas de accesibilidad que destacarán funcionalidades como compatibilidad con VoiceOver, soporte Braille, subtítulos en vídeo, control por voz y más. Con estas etiquetas, las personas podrán saber de un vistazo si una app ofrece las características que necesitan antes de descargarla, ahorrando tiempo y mejorando la experiencia de descubrimiento.

Hacia un ecosistema más inclusivo

Con estas nuevas funciones, Apple demuestra que la tecnología puede derribar barreras y abrir nuevas formas de interacción para las personas con discapacidad visual y auditiva. Al combinar herramientas basadas en inteligencia artificial, conectividad entre dispositivos y un profundo enfoque de diseño universal, la compañía no solo mejora sus productos, sino que contribuye a una sociedad más inclusiva.

La implementación de estas funcionalidades a finales de 2025 supondrá un avance significativo en la autonomía de millones de personas. El desafío ahora es que desarrolladoras y desarrolladores de aplicaciones se sumen a esta ola de accesibilidad, aprovechando las etiquetas de la App Store y las APIs de Apple para crear experiencias inclusivas de principio a fin. Solo así podremos asegurar que cada persona, sin importar sus capacidades, encuentre en sus dispositivos una ventana abierta al mundo y a la igualdad de oportunidades.

¿Qué opinas de estas iniciativas tecnológicas? ¡Dejanos tu comentario! Te invitamos a leer nuestro artículo: Lancôme presenta HAPTA: tecnología de maquillaje para personas con discapacidad motora

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad