Apple anuncia nuevas funciones de accesibilidad que llegarán este año
Apple quiere que sus dispositivos sean accesibles para la mayor cantidad posible de s y esta nueva actualización lo vuelve una realidad
La nueva función de lupa permitirá a los s de Mac con baja visión poder ver con mayor claridad el contenido en pantalla Crédito: Apple | Cortesía
Apple acaba de revelar una nueva oleada de funciones de accesibilidad que empezarán a desplegarse a lo largo de 2025, reforzando su compromiso con una tecnología inclusiva. Desde herramientas mejoradas para personas con discapacidad visual o auditiva, hasta opciones para quienes usan interfaces cerebro-computadora, la compañía de Cupertino sigue innovando para que nadie se quede fuera de la experiencia Apple.
Más accesibilidad desde la App Store hasta el Apple Vision Pro
Una de las novedades más destacadas son las Accessibility Nutrition Labels para la App Store. Esta nueva sección mostrará qué características de accesibilidad tiene cada app —como VoiceOver, control por voz o texto más grande—, para que los s sepan antes de descargar si una app será adecuada para sus necesidades.
Para s con discapacidad visual, llega la app Magnifier al Mac. Esta herramienta, ya presente en iPhone y iPad, ahora permitirá usar cámaras conectadas para ampliar textos o detalles del entorno desde un Mac. Se podrá usar con Continuity Camera, cámaras USB y también aprovechar la vista Desk View para leer documentos o seguir presentaciones.
Apple también lanzó Braille Access, una nueva forma de interactuar en iPhone, iPad, Mac y Apple Vision Pro. Transforma estos dispositivos en verdaderos anotadores braille con opciones como escritura directa, cálculos con código Nemeth y apertura de archivos BRF. Además, permite transcripción en tiempo real con Live Captions, directamente en pantallas braille.
Y hablando de lectura, se suma Accessibility Reader, un nuevo modo de lectura que mejora la legibilidad del texto en todos los dispositivos de Apple. Podrás ajustar fuente, espaciado, colores y activar lectura en voz alta desde cualquier app. Este modo también está integrado en la app Magnifier, útil para leer menús o textos impresos.
Apple Watch, Vision Pro y nuevas funciones de audio
El Apple Watch no se queda atrás. Recibirá Live Captions, una función que permitirá ver en tiempo real subtítulos de lo que escucha el iPhone. Esto será útil para personas sordas o con problemas auditivos que utilicen AirPods, audífonos compatibles o Beats. Además, se podrá controlar Live Listen desde el reloj, incluso a distancia.
En el Apple Vision Pro, las mejoras vienen con todo. La función Zoom aprovechará el sistema de cámaras del visor para aumentar cualquier elemento a la vista. Además, Live Recognition usará aprendizaje automático para describir entornos, leer documentos o identificar objetos. También habrá una nueva API para apps como Be My Eyes, que permitirá asistencia visual en vivo usando la cámara principal.
Entre otras novedades, Background Sounds ahora tendrá ecualizador, temporizador de apagado automático y soporte en Atajos. La función Personal Voice, pensada para personas en riesgo de perder su voz, ahora se podrá generar en menos de un minuto usando solo 10 frases, y por fin incluye soporte para español (México).
Control por la mirada, música háptica y más funciones sorprendentes
Apple también extiende las opciones para quienes usan Eye Tracking y Head Tracking, facilitando el control por movimiento ocular o de cabeza en iPhone, iPad y Vision Pro. Se han simplificado acciones como escribir con teclado, seleccionar con dwell o QuickPath, y se añadió un nuevo temporizador de permanencia para el teclado.
En cuanto a movilidad extrema, llega soporte para Switch Control con interfaces cerebro-computadora (BCIs). Sí, eso significa que s podrán controlar dispositivos Apple sin moverse físicamente, una integración pionera dentro del ecosistema.
Otras funciones que llegarán pronto:
- Music Haptics será más personalizable: se podrá elegir entre vibraciones para toda la canción o solo para las voces.
- Sound Recognition ahora detectará cuando llaman tu nombre.
- Voice Control agregará un modo de programación en Xcode, sincronización de vocabulario entre dispositivos y nuevos idiomas como coreano, árabe, ruso, entre otros.
- CarPlay sumará texto grande y reconocimiento de sonidos como llantos de bebé, sirenas o bocinas.
- Y se añadirá una función para compartir configuraciones de accesibilidad de forma temporal entre dispositivos, ideal para situaciones públicas o cuando prestás tu iPhone a alguien.
Todas estas novedades estarán disponibles durante el transcurso de 2025, aunque Apple no ha especificado fechas exactas para cada función. Pero si algo está claro es que la compañía sigue marcando la pauta cuando se trata de accesibilidad. Y lo mejor: todo esto aprovecha el potencial del Apple silicon y el aprendizaje automático integrado en sus dispositivos.
Sigue leyendo:
• Apple marca nuevos dispositivos como obsoletos y vintage: ¿El tuyo está en la lista?
• Apple gana una importante batalla por la privacidad de sus s en Reino Unido
• ¿Pensando en renovar tu iPhone? La nueva oferta de Apple te puede interesar