si apre in una nuova finestra
COMUNICATO STAMPA 15 maggio 2024

Apple annuncia nuove funzioni di accessibilità, tra cui Eye Tracking, Music Haptics e Vocal Shortcuts

Entro la fine dell’anno Apple renderà disponibili nuove funzioni di accessibilità, fra cui il tracciamento degli occhi (Eye Tracking) che permette di controllare iPad e iPhone usando soltanto gli occhi.
CUPERTINO, CALIFORNIA Oggi Apple ha annunciato nuove funzioni di accessibilità in arrivo più avanti nel corso dell'anno, fra cui Eye Tracking che permette a utenti con disabilità fisiche di controllare iPad o iPhone usando soltanto gli occhi. A queste si aggiungono Music Haptics, che permette a persone sorde o ipoudenti di “sentire” la musica usando il Taptic Engine su iPhone; Vocal Shortcuts, che consente all’utente di eseguire attività riproducendo un suono personalizzato; Vehicle Motion Cues, che riduce la chinetosi quando si usa iPhone o iPad all’interno di un veicolo in movimento; e altre funzioni di accessibilità che arriveranno con visionOS. Queste funzioni combinano la potenza dell’hardware e del software Apple, sfruttando il chip Apple, l’intelligenza artificiale e il machine learning on-device per aiutare Apple in una missione che ormai porta avanti da molti anni: progettare prodotti realmente alla portata di tutti e tutte.
“Crediamo fermamente nel potere trasformativo che le innovazioni hanno nel migliorare la vita delle persone” ha detto Tim Cook, CEO di Apple. “È questo il motivo per cui Apple, da circa 40 anni, promuove il design inclusivo integrando l’accessibilità fin nelle fondamenta del nostro hardware e software. Ridefiniamo continuamente i confini di ciò che la tecnologia riesce a fare, e queste nuove funzioni riflettono il nostro impegno costante nell’offrire la migliore esperienza possibile a ogni persona.”
“Ogni anno sperimentiamo qualcosa di completamente nuovo nel campo dell’accessibilità” ha detto Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives di Apple. “Queste nuove funzioni avranno un impatto importante nella vita di un vasto gruppo di utenti, aprendo la strada a nuovi modi di comunicare, controllare i dispositivi ed esplorare il mondo.”

Eye Tracking arriva su iPad e iPhone

La funzione Eye Tracking, basata sull’intelligenza artificiale, sarà inclusa di serie e permetterà di controllare iPad e iPhone usando soltanto gli occhi. È stata sviluppata pensando a chi ha una disabilità fisica, e usa la fotocamera frontale per completare in pochi secondi la configurazione e la calibrazione. Inoltre, grazie al machine learning on-device, tutti i dati utilizzati per configurare e controllare questa funzione restano al sicuro sul dispositivo e non vengono condivisi con Apple.
Eye Tracking è compatibile con le app iPadOS e iOS, e non richiede hardware o accessori extra. Grazie a Eye Tracking, l’utente può spostarsi fra gli elementi di un’app e usare la funzione Controllo con ritardo per attivare ciascun elemento, accedere a funzioni aggiuntive come pulsanti fisici, usare lo scorrimento o altri gesti, il tutto soltanto con gli occhi.

Con Music Haptics la musica diventa più accessibile

Music Haptics permette alle persone sorde o ipoudenti di “sentire” la musica su iPhone in un modo completamente inedito. Quando questa funzione è attivata, il Taptic Engine di iPhone riproduce colpi, texture sonore e le vibrazioni sottili di una canzone. È compatibile con milioni di brani del catalogo Apple Music e sarà disponibile come API, così chi sviluppa potrà rendere la musica più accessibile nelle proprie app.
Music Haptics permette alle persone sorde o ipoudenti di “sentire” la musica su iPhone in un modo completamente inedito.

Nuovi funzioni per una vasta tipologia di voci

La funzione “Vocal Shortcuts” permette a chi usa iPhone e iPad di assegnare ai comandi frasi personalizzate, che Siri è in grado di comprendere, per attivare scorciatoie e completare task complessi. Un’altra novità è la funzione “Listen for Atypical Speech”, che offre all’utente la possibilità di migliorare il riconoscimento vocale per un più ampio range di voci, avvalendosi del machine learning on-device per riconoscere gli schemi vocali. Sviluppate pensando alle persone con condizioni acquisite o progressive che compromettono la capacità di parlare, come paralisi cerebrale, sclerosi laterale amiotrofica (SLA) o ictus, queste funzioni offrono un nuovo livello di personalizzazione e controllo. Sono sviluppate a partire dalle funzioni introdotte già con iOS 17 per utenti che non parlano o rischiano di perdere la capacità di parlare.
“L’intelligenza artificiale ha il potere di migliorare il riconoscimento vocale di milioni di persone che hanno un linguaggio atipico: siamo davvero felici che Apple stia mettendo a disposizione queste funzioni” ha detto Mark Hasegawa-Johnson, ricercatore principale dello Speech Accessibility Project presso il Beckman Institute for Advanced Science and Technology della University of Illinois Urbana-Champaign. “Lo Speech Accessibility Project è nato come un’iniziativa su ampia base supportata dalla comunità per aiutare società e università a rendere il riconoscimento vocale più affidabile ed efficace. Apple è tra le aziende che si battono per l’accessibilità e hanno reso possibile questo progetto.”

Vehicle Motion Cues può contribuire a ridurre la chinetosi

Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può contribuire a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi. Alcuni studi dimostrano che la chinetosi è in genere causata da un conflitto sensoriale fra ciò che si vede e la sensazione che si prova, e questo disturbo potrebbe impedire ad alcune persone di usare iPhone o iPad mentre viaggiano a bordo di un veicolo. Quando si attiva la modalità Vehicle Motion Cues, compaiono dei punti animati ai bordi dello schermo che riproducono le variazioni di movimento del veicolo, in modo da ridurre il conflitto sensoriale senza interferire con il contenuto principale. Grazie ai sensori integrati in iPhone e iPad, Vehicle Motion Cues rileva quando l’utente si trova all’interno di un veicolo in movimento e reagisce di conseguenza. È possibile impostare questa funzione in modo che si attivi in automatico, oppure abilitarla o disabilitarla manualmente in Centro di Controllo.
Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può contribuire a ridurre la sensazione di malessere causata dal movimento del veicolo con cui si viaggia, un disturbo noto anche come chinetosi.

Controllo vocale arriva su CarPlay, insieme ad altri aggiornamenti per l’accessibilità

CarPlay ora include funzioni di accessibilità, fra cui Controllo vocale, Filtri colore e Riconoscimento suoni. Controllo vocale permette di usare CarPlay e di gestire le app usando soltanto la voce. Con Riconoscimento suoni, le persone sorde o ipoudenti che guidano o viaggiano in auto possono attivare le notifiche per suoni come clacson e sirene. I Filtri colore aiutano le persone affette da daltonismo a visualizzare meglio l’interfaccia di CarPlay; sono disponibili anche altre funzioni assistive per la vista come Testo in grassetto e Testo grande.
La nuova funzione Riconoscimento suoni di CarPlay che mostra l’avviso per il rilevamento di una potenziale sirena.
Fra le novità in arrivo su CarPlay c’è Riconoscimento suoni, che permette alle persone sorde o ipoudenti che guidano o viaggiano in auto di ricevere una notifica quando vengono rilevati suoni come clacson o sirene.

Funzioni di accessibilità in arrivo su visionOS

Quest’anno, fra le funzioni di accessibilità che verranno aggiunte a visionOS ci sarà Trascrizioni live, che sarà disponibile a livello di sistema e aiuterà qualsiasi utente, comprese le persone sorde o ipoudenti, a seguire una conversazione dal vivo o i contenuti audio delle app. Grazie alla possibilità di usare Trascrizioni live con FaceTime in visionOS, ancora più persone potranno comunicare e collaborare usando il proprio avatar. Su Apple Vision Pro sarà possibile spostare i sottotitoli usando la barra della finestra durante gli Apple Immersive Video, e verrà aggiunto il supporto per gli apparecchi acustici Made for iPhone e i processori acustici degli impianti cocleari. Per migliorare l’esperienza di chi ha difficoltà visive o preferisce evitare luci troppo accese e lampeggiamenti, verranno aggiunte le funzioni di accessibilità Riduci trasparenza, Inversione smart e Attenua luci lampeggianti.
L’esperienza con Trascrizioni live su visionOS mostrata dalla prospettiva dell’utente Apple Vision Pro.
Su visionOS sarà disponibile la funzione Trascrizioni live, che permetterà alle persone sorde o ipoudenti di seguire le conversazioni dal vivo o i contenuti audio delle app.
Queste funzioni vanno ad aggiungersi ad altre decine di funzioni di accessibilità già disponibili su Apple Vision Pro, un dispositivo con un sistema di input flessibile e un’interfaccia intuitiva, progettato tenendo conto di tante diverse tipologie di utente. Funzioni come VoiceOver, Zoom e Filtri colore permetteranno inoltre alle persone cieche o ipovedenti di accedere all’esperienza dello spatial computing, mentre funzioni come Accesso guidato supporteranno chi ha disabilità cognitive. L’utente potrà controllare Vision Pro usando gli occhi, le mani o la voce, nella combinazione che preferisce, insieme a funzioni di accessibilità come Controllo interruttori, Azioni suoni e Controllo con ritardo, utili anche per chi ha disabilità di tipo fisico.
“Apple Vision Pro è senza dubbio la tecnologia più accessibile che io abbia mai usato” ha detto Ryan Hudson-Peralta, cofondatore di Equal Accessibility LLC, product designer e consulente di accessibilità di Detroit. “Essendo nato senza mani e non essendo in grado di camminare, sapevo che il mondo non era fatto su misura per me, ed è stato incredibile vedere che visionOS funziona davvero. Dimostra le potenzialità e l’importanza di avere un design inclusivo e accessibile.”

Altri aggiornamenti

  • Per migliorare l’esperienza delle persone cieche o con difficoltà visive, VoiceOver includerà nuovi timbri di voce, un rotore vocale flessibile, un controllo del volume personalizzabile e la possibilità di modificare le scorciatoie da tastiera VoiceOver su Mac.
  • Lente d’ingrandimento offrirà una nuova modalità Lettura e permetterà di avviare la Modalità di rilevamento con il tasto Azione.
  • Per chi usa il braille sarà disponibile un nuovo modo di lanciare e usare Input Braille schermo che velocizzerà il controllo e la modifica del testo; la funzione sarà inoltre disponibile anche in lingua giapponese. E la funzione Dot Pad supporterà il braille multi-riga e permetterà di scegliere diverse tavole di input e output.
  • Hover Typing migliora l’esperienza delle persone ipovedenti: quando si scrive in una casella di testo, i caratteri appaiono più grandi e nel colore e nel font scelti dall’utente.
  • Voce personale, una funzione pensata per le persone che rischiano di perdere la capacità di parlare, ora sarà disponibile anche in cinese (mandarino). Chi ha difficoltà a leggere o a pronunciare frasi complete potrà creare una voce personale con frasi più brevi.
  • Per migliorare l’esperienza delle persone totalmente afone, Voce in tempo reale includerà nuove categorie e sarà compatibile con Trascrizioni live.
  • Il trackpad virtuale di AssistiveTouch permetterà alle persone con disabilità fisiche di controllare il dispositivo usando una piccola area dello schermo come trackpad ridimensionabile.
  • Controllo interruttori includerà l’opzione di usare le fotocamere su iPhone e iPad per riconoscere i tap come interruttori.
  • Controllo vocale supporterà dizionari personalizzati e parole complesse.

Celebrare la Giornata mondiale dell’Accessibilità con Apple

Per celebrare la Giornata mondiale dell’Accessibilità, questa settimana Apple presenterà nuove funzioni, raccolte speciali e tanto altro.
  • Per tutto il mese di maggio, alcuni Apple Store offriranno sessioni gratuite per aiutare i clienti e le clienti a esplorare le funzioni di accessibilità incluse di serie nei prodotti che amano. Da Apple Piazza Liberty, a Milano, interverrà il gruppo di creativi che ha ideato “Assume that I can”, una campagna lanciata per la Giornata mondiale delle persone con Sindrome di Down e diventata virale. E con le prenotazioni di gruppo disponibili tutto l’anno, gli Apple Store offrono a gruppi di amici, famiglie, scuole e associazioni la possibilità di esplorare insieme le funzioni per l’accessibilità.
  • Su Comandi rapidi arriva l’opzione Calming Sounds che riproduce musica ambient per ridurre al minimo le distrazioni e favorire la concentrazione o il rilassamento.
  • Sull’App Store sono disponibili app e giochi straordinari che promuovono l’accessibilità e l’inclusione, come il gioco Unpacking, premiato agli App Store Award, le app come strumenti di comunicazione aumentativa e alternativa (CAA) e molto altro.
  • L’app Apple TV renderà omaggio a creator, performer e attivisti straordinari che condividono con entusiasmo le esperienze delle persone con disabilità. Il motto di quest’anno sarà Remaking the World, e ogni storia invita a immaginare una realtà dove ogni persona può far sentire la propria voce per contribuire alla grande storia dell’umanità.
  • Su Apple Books verranno pubblicate raccolte speciali con storie reali di persone con disabilità narrate in prima persona, che saranno disponibili come ebook e audiolibri.
  • Su Apple Fitness+, gli allenamenti, le meditazioni e i suggerimenti del team di trainer sono tradotti nella lingua dei segni americana e Passeggiamo ora include le trascrizioni nell’app Apple Podcasts. Tutti gli allenamenti su Fitness+ includono suggerimenti audio per supportare le persone cieche o con difficoltà visive, e trainer che propongono versioni modificate degli esercizi che permettono a persone con qualsiasi livello di partecipare.
  • Per capire come personalizzare i dispositivi Apple con le funzioni di accessiibilità di serie, è possibile visitare il sito del Supporto Apple. Grazie ai video della playlist Apple dedicata all’accessibilità l’utente imparerà a personalizzare Apple Vision Pro, iPhone, iPad, Apple Watch e Mac nel modo più funzionale alle sue esigenze, per esempio potrà modificare i gesti o personalizzare il modo in cui vengono visualizzate le informazioni.
Condividi articolo

Media

  • Testo dell’articolo

  • Immagini in questo articolo

Contatti stampa

Tiziana Scanu

Apple

scanu.t@apple.com

02 27326372

Helpline Apple per la stampa

media.it@apple.com

02 27326227