Apple annuncia una serie di aggiornamenti sull’accessibilità

Apple ha annunciato oggi una serie di funzionalità nuove e aggiornate per le persone con disabilità. A partire dal 20 maggio, i clienti possono utilizzare il nuovo servizio di interprete del linguaggio dei segni SignTime per contattare AppleCare e l’assistenza clienti al dettaglio tramite i loro browser web. Gli aggiornamenti software entro la fine dell’anno per iOS, watchOS e iPadOS porteranno opzioni migliorate per Assistive Touch, VoiceOver, supporto per apparecchi acustici e suoni di sottofondo.

Il nuovo servizio SignTime viene lanciato per la prima volta negli Stati Uniti, nel Regno Unito e in Francia e offre accesso interprete remoto per la lingua dei segni americana, la lingua dei segni britannica e la lingua dei segni francese. Le persone possono anche utilizzare il servizio negli Apple Store per ottenere l’interpretazione senza prenotarlo in anticipo, evitando potenzialmente il fastidio di contrattare un interprete con breve preavviso.

Le persone con differenze agli arti saranno in grado di utilizzare Assistive Touch su watchOS, che dovrebbe consentire loro di utilizzare Apple Watch senza toccare lo schermo. (Apple non ha verificato per quali orologi funzionerà.) Apple afferma che l’Apple Watch può rilevare il movimento muscolare e l’attività dei tendini attraverso i suoi sensori integrati, consentendo agli utenti di controllare un cursore sullo schermo dell’orologio, rispondere alle chiamate, accedere alle notifiche e più facendo vari movimenti e gesti. (Puoi vederlo in azione nel video in questa pagina.)

iPadOS supporterà dispositivi di tracciamento oculare di terze parti, consentendo alle persone con mobilità ridotta di spostare un cursore con lo sguardo ed eseguire azioni mantenendo il contatto visivo, invece di toccare lo schermo.

VoiceOver, lo screen reader integrato di Apple, verrà aggiornato per includere maggiori dettagli nelle immagini. Secondo Apple, consentirà alle persone di navigare nelle immagini con testo e tabelle di dati per righe e colonne e di descrivere persone e oggetti nelle immagini. Le persone potranno anche aggiungere descrizioni di immagini con Markup.

Apple prevede di aggiornare anche il programma di apparecchi acustici Made for iPhone, con il supporto per gli apparecchi acustici bidirezionali. Gli utenti potranno anche caricare i risultati dei loro test dell’udito su Headphone Accommodations per personalizzare più facilmente il modo in cui la funzione amplifica i suoni e regola le diverse frequenze.

Tre Memoji sorridenti, che mostrano uno con un impianto cocleare a sinistra, uno con tubi di ossigeno nasali al centro e uno con un elmetto morbido a destra.

Immagine: Mela

Per le persone neurodiverse (o chiunque ami il rumore bianco), Apple sta introducendo suoni di sottofondo che possono essere incorporati con altri suoni audio e di sistema. Includono “rumori bilanciati, luminosi o oscuri, nonché suoni dell’oceano, della pioggia o del flusso” che possono essere impostati per essere riprodotti in modo continuo e mascherare rumori che distraggono o travolgono.

Altre caratteristiche che Apple sta pianificando per la fine dell’anno includono la possibilità di utilizzare suoni della bocca come clic o pop invece di utilizzare pulsanti fisici, la personalizzazione delle impostazioni di visualizzazione e dimensione del testo nelle singole app e nuove opzioni Memoji con impianti cocleari, tubi di ossigeno, e caschi morbidi.

Le aziende grandi e piccole hanno sempre margini di miglioramento quando si tratta di rendere i loro prodotti accessibili, ma Apple è stata generalmente un leader nel settore. Si spera che questi aggiornamenti segnalino un impegno continuo a progettare pensando alle persone disabili.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *