Apple marche sur le terrain des aides auditives

Accessibilite


Le prochain OS d'Apple iOS14, intègre même un "audiogramme"

Lors de sa conférence plénière pour présenter les nouveautés de la mise à jour de son système d'exploitation iOS 14, Apple a annoncé des améliorations concernant l'accessibilité. On peut ainsi noter de nouvelles fonctionnalités centrées sur l'audition, à destination des malentendants.



Il est désormais possible, à partir du boîtier de rechargement des AirPods Pro, les écouteurs de deuxième génération d'Apple, d’ajuster les fréquences de l’audio diffusé. On peut personnaliser les paramètres en atténuant ou en amplifiant des sons particuliers jusqu’à neuf profils, par exemple des profils différents pour un film ou pour les appels, en exploitant trois réglages d’amplification et trois forces différentes.

Avec le mode de transparence, les utilisateurs d'AirPods Pro ont la possibilité d'ajuster l'écoute en rendant les voix ténues plus nettes et les sons extérieurs plus détaillés. Il semble que les AirPods Pro proposent une fonctionnalité d'amplification personnalisée, proche de ce que peut offrir une aide auditive.

Un « audiogramme » apparaît dans les captures d'écran illustrant l'annonce d'iOS14 ce qui semble annoncer un réglage personnalisé de l'écoute en fonction de ces mesures.

 

Parallèlement, Apple propose un système de reconnaissance sonore afin de transmettre des alertes aux personnes sourdes telles que des sirènes, des avertisseurs de fumée à la maison ou des alarmes incendie de bâtiment mais également les carillons de sonnette, les klaxons de voiture ou de l'eau qui coule. Apple travaillerait également sur la détection des sons provenant de personnes ou d’animaux.

Le constructeurs a également adapté les appels FaceTime de groupe aux personnes qui utilisent la langue des signes au lieu de parler avec une mise en avant de la personne qui signe.

Enfin, l’application Noise, introduite dans WatchOS 6 l’année dernière et qui mesure les niveaux sonores ambiants, donnera également des informations sur le niveau d'écoute via les écouteurs et enverra une notification si les niveaux recommandés par l'OMS sont dépassés.

Franck-Olivier Chabbat, spécialiste de e-marketing pour les centres auditifs chez Emarketing concept 2.0, semble confiant, dans son analyse, sur le fait qu'Apple ait pu résoudre le problème de latence introduite par le traitement audio sur le téléphone et sa transmission aux AirPods. « Le défi de l'utilisation du traitement des smartphones est que les informations auditives doivent être présentées dans les 80 millisecondes. Si le traitement et la transmission de ces informations ne peuvent pas avoir lieu pendant cette période, cela rendra la communication plus difficile. Cela est dû au fait que les signaux de propagation peuvent être désynchronisés avec l'audio amplifié. L'annonce de lundi n'indique pas si le traitement audio aura lieu sur l'iPhone ou à bord des AirPods Pro, mais étant donné les antécédents d'Apple pour l'audio jusqu'à présent, il ne serait logique pour eux de publier une fonctionnalité d'accessibilité importante comme celle-ci que si la latence était de ou en dessous d'un nombre acceptable de millisecondes pour maintenir la synchronisation audio et visuelle », souligne-t-il avant de s'interroger sur la réaction que doivent avoir les audioprothésistes face à ces annonces, d'autant que si Apple est souvent pionnier sur les technologies, il est également un exemple que de nombreux concurrents s'empressent de suivre. « Il va donc falloir pour les centres auditifs communiquer de plus en plus sur la réhabilitation auditive, l'adaptation prothétique et moins sur les produits », conclut Franck-Olivier Chabbat.

 

Nathalie Bloch-Sitbon