Apple révèle de nouvelles fonctionnalités d’accessibilité pour iPhone, iPad et Apple Watch

Apple a annoncé aujourd’hui ses prochaines étapes pour améliorer l’accessibilité de ses produits. Une foule d’améliorations, de fonctionnalités et d’options sont à venir, conçues pour aider les personnes handicapées à tirer le meilleur parti de leurs appareils Apple.

Dans un communiqué de presse, Apple a révélé que de nouvelles fonctionnalités importantes arriveraient sur l’iPhone, l’Apple Watch et l’iPad. Sur les iPhones, Apple met à jour le programme Made For iPhone en ajoutant la prise en charge de nouvelles aides auditives bidirectionnelles. Ces nouvelles aides ont des microphones qui permettront aux utilisateurs de passer des appels mains libres et FaceTime. En outre, Apple ajoute également la prise en charge des audiogrammes (ou des tests auditifs) qui permettront aux utilisateurs d’importer les données de leurs tests pour personnaliser l’audio.

Apple ajoute également une fonction de sons de fond, conçue pour aider les gens à rester concentrés en fournissant un bruit constant comme le bruit blanc, l’océan, la pluie ou les sons de flux. Il est destiné à masquer les sons environnementaux, mais Apple dit que la fonctionnalité s’intégrera au système ou à tout autre audio joué sur votre appareil.

Sur Apple Watch, Apple ajoute la fonction AssistiveTouch conçue pour permettre une navigation sans contact sur l’écran de la montre. Étant donné que les montres Apple se sont jusqu’à présent appuyées sur des commandes tactiles et vocales, il s’agit d’une fonctionnalité assez importante. Essentiellement, il permet aux personnes qui peuvent avoir des différences de mobilité des membres supérieurs d’utiliser des gestes de la main sur la main portant la montre pour déplacer un curseur sur son écran. Les fonctionnalités de navigation arrivent également sur iPad, avec la prise en charge du suivi oculaire en cours de route. Cela permettra aux utilisateurs de naviguer sur un écran iPad en déplaçant un curseur avec des gestes oculaires captés par la caméra de l’iPad.

Enfin, la prise en charge améliorée de VoiceOver arrive sur les photos sur les appareils Apple. Alors que VoiceOver a déjà pris en charge la lecture des descriptions d’images, Apple ajoutera bientôt des capacités pour explorer plus d’informations sur ce qui se trouve dans les photographies. Par exemple, pour une image d’un reçu, la fonction lira ce qui se trouve sur le reçu comme s’il s’agissait d’une feuille de calcul.

Ce sont toutes des fonctionnalités fantastiques pour aider à améliorer la convivialité par les personnes handicapées et neurodivergentes, et la technologie utilisée pour alimenter ces ajouts améliorera probablement de nombreuses autres parties de l’expérience utilisateur Apple sur toute la ligne. Apple lancera ces fonctionnalités plus tard cette année.


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*