oNavTouch : méthode de saisie de texte sur téléphone mobile tactile adaptée au contexte du handicap visuel

Eric Petit & Delphine Ponge (Orange Labs, Grenoble)

De nos jours le téléphone mobile est un outil essentiel pour la grande majorité des gens. Les tâches comme appeler une personne, envoyer un SMS, gérer ses contacts ou son agenda sont réalisées au quotidien. En particulier, l’usage des messages courts interpersonnels est en progression constante depuis 2005 (selon l’ARCEP, en 2011 le nombre moyen de SMS envoyés par mois et par personne était de 200). Parallèlement, les technologies tactiles sur les téléphones portables ont suscité un réel engouement en permettant de manipuler directement les éléments de l’écran avec le doigt. Ce mode d’interaction directe avec les éléments de l’interface graphique fait appel à la modalité visuelle pour contrôler finement le positionnement spatial du doigt sur l’écran. Malheureusement, ce mode d’interaction, allié à une complexité croissante des fonctionnalités du terminal, est peu adapté aux personnes malvoyantes ou non voyantes, et ce, malgré les lecteurs d’écran qui se généralisent aujourd’hui sur les smartphones. Ces lecteurs d’écran permettent d’explorer spatialement l’interface avec le doigt grâce à la synthèse vocale. Toutefois, lorsqu’il s’agit de saisir du texte ils se révèlent peu efficaces. Par exemple, le système VoiceOver d’Apple sur iPhone permet d’utiliser le clavier virtuel Azerty en aveugle, non sans difficulté, avec une vitesse moyenne de saisie de 0.66 mots par minute selon [1]. Le recours à un lecteur d’écran revient à adapter une interface graphique utilisateur conçue au départ pour des personnes voyantes et caractérisée par une logique de pointage et de positionnement spatial absolu faisant appel à la vue. Dans ce paradigme dominant, l’adaptation des méthodes de saisies classiques aux non voyants, basées sur des claviers virtuels de type Azerty ou claviers de type « multi-tap » (simulant un clavier T9), demande un effort important de mémorisation pour l’utilisateur afin de connaître la disposition des touches ou l’association entre les touches et groupes de lettres. De plus, le geste de pointage requiert une grande précision lorsqu’il s’agit d’atteindre une cible de petite dimension, ce qui est source d’erreurs de saisie et conduit à une utilisabilité généralement faible.

L’approche que nous proposons est en rupture avec le paradigme de positionnement absolu propre aux interfaces graphiques classiques et de fait en rupture avec la solution d’accessibilité basée sur l’exploration spatiale et audio procédant par « tâtonnement ». Elle repose sur du positionnement relatif et des gestes directionnels couplés à une logique d’exploration séquentielle et audio. Le doigt glissant sur l’écran dans une direction donnée déplace un focus sur des éléments d’une liste (notamment alphabétique). L’élément correspondant au focus est vocalisé et peut être sélectionné par un double appui ou un appui multipoint de type « second-finger tap ». Il n’y a alors pas de corrélation spatiale entre la position du doigt sur l’écran et l’élément qui a le focus. Seul le déplacement relatif est pris en compte. Plus précisément, la distance parcourue par le doigt détermine le nombre d’items survolés, avec la possibilité d’ajuster la sensibilité du défilement en fonction des préférences de l’utilisateur. Dans ce schéma, les éléments (lettres, chiffres, ...) sont liés les uns aux autres de façon à pouvoir les parcourir dans un ordre logique. Ce principe innovant permet de pallier le handicap visuel en relâchant la contrainte de pointage et en minimisant la charge cognitive.

Selon ce principe, nous avons conçu la méthode de saisie de texte sur téléphone mobile baptisée oNavTouch. Cette méthode est inspirée de la méthode NavTouch proposée par Guerreiro et al. [2, 3] qui permet à l’aide de gestes directionnels simples de naviguer dans les 26 lettres de l’alphabet, lettre à lettre par des gestes horizontaux, ou avec la possibilité de sauter de voyelle en voyelle en utilisant la direction verticale. Toutefois, notre méthode s’écarte sensiblement de la méthode originelle par différents aspects, au niveau des règles de navigation, des gestes de navigation et des fonctionnalités proposées. En particulier, oNavTouch permet de faire des gestes courts et rapides de navigation item par item mais également des gestes longs et continus sans lever le doigt pour faire défiler plusieurs items à la fois. De plus, contrairement à NavTouch, la méthode proposée est une méthode de saisie complète pouvant gérer les différentes listes : lettres minuscules, lettres majuscules, lettres accentuées, ponctuation, commandes d’édition, chiffres, caractères spéciaux. De fait, elle apporte de nombreuses innovations en termes de navigation et d’interaction gestuelle.

Un premier prototype sur smartphone Android a donc été élaboré pour implémenter nos spécifications initiales. Ce prototype a été soumis à un pré-test sur une population représentative d'utilisateurs déficients visuels (malvoyants et non-voyants). Les recommandations issues du pré-test ont donné lieu à la réalisation d’un nouveau prototype. Ce second prototype a fait l'objet d'un test utilisateur plus formel, incluant des participants ayant déjà participé au pré-test, des nouveaux participants déficients visuels et des participants voyants placés en situation de handicap visuel. Ce test utilisateur a permis de valider la pertinence des modifications. Il a également permis de comparer l’utilisabilité de notre méthode à celle du clavier virtuel de l’iPhone allié au système VoiceOver. Dans le cas du clavier virtuel de l’iPhone, seuls 2 utilisateurs expérimentés de la méthode ont réussi les tâches de saisie du test. Concernant oNavTouch, 10 participants sur 12 ont réussi les tâches de saisie. Nous travaillons actuellement sur une version industrielle qui inclura un mode d’édition plus efficace pour la relecture et la correction du texte saisi et aussi la possibilité de réaliser des raccourcis gestuels de commande pour gagner en efficience.

  1. Bonner, M., Brudvik, J., Abowd, G. Edwards, K.: No-Look Notes: Accessible Eyes-Free Multi-Touch Text Entry In: The Eighth International Conference on Pervasive Computing, LNCS, vol. 6030, pp. 409--426. Springer, Heidelberg (2010).
  2. Guerreiro, T., Lagoa, P., Nicolau, H., Santana, P., Jorge, J.: Mobile text-entry models for people with disabilities, Proceedings of the 15th European conference on Cognitive ergonomics: the ergonomics of cool interaction (2008).
  3. Guerreiro, T., Lagoa, P., Nicolau, H., Goncalves, D., Jorge, J.: From Tapping to Touching: Making Touch Screens Accessible to Blind Users, journal IEEE Multimedia (2008).