Autour est un système mobile yeux-libres conçu pour donner aux utilisateurs aveugles une meilleure idée de leur environnement. Malgré le fait que d'autres systèmes (par example, le Trekker de Humanware et les outils standards des GPS) mettent l'accent sur la navigation d'un point à l'autre, typiquement accomplie par des instructions explicites de virer à tel coin de rue, notre objectif est d'utiliser des sons ambiants afin de révéler le genre d'informations que les repères visuels, tels que les enseignes au néon, fournissent aux utilisateurs voyants. Une fois que les utilisateurs remarquent un point d'intérêt, des détails additionnels sont disponibles sur demande.
Lorsque vous démarrez Autour pour la première fois, vous serez guidé à travers un tutoriel interactif qui montre quelques-uns des modes de fonctionnement de l'application. Ceux-ci comprennent Radar, qui annonce des lieux alors que le radar balaye autour de l'utilisateur, et Faisceau, qui agit comme une lampe de poche, annonçant des lieux dans la direction vers laquelle l'utilisateur fait face. D'autres modes, et le menu des paramètres, sont décrits en détail dans les instructions. Autour peut être utilisé soit en gardant le téléphone dans la main ou d'une manière presque mains-libres, en laissant le téléphone dans une poche autour du cou de l'utilisateur, au choix. Pour assurer un comportement correct, il est important de préciser le « mode de transport » dans le menu de réglages de l'application de telle sorte que Autour sait de quelle manière le téléphone est tenu.
L'expérience-utilisateur avec Autour est étroitement liée aux sons spatialisés, préférablement en utilisant seulement des écouteurs à conduction osseuse ou à l'air libre, afin de ne pas interférer avec les sons naturels de son environnement. Les sons semblent être émis à partir d'emplacements autour de l'utilisateur, donnant ainsi une sensation de direction et de distance. Cela contribue à la parcimonie de représentation et rend les repères sonores moins intrusifs. Imaginez la différence entre une voix mécanique qui dit « Restaurant, 50 mètres, 60 degrés à votre gauche », versus un court message « Restaurant » spatialisé dans la bonne direction.
La meilleure façon de comprendre ce fait Autour est d'en faire l'expérience de première main. Nous vous invitons à télécharger l'application et l'essayer!
Détails techniques
Présentement Autour fonctionne sur iPhone 4s ou plus récent ; une version Android est en cours de développement. Pour déterminer la position et l'orientation de l'utilisateur, l'appli utilise les senseurs déjà inclus dans le téléphone, tels que la boussole, le gyroscope et le GPS. Le serveur de l'appli fournit une liste des lieux proches de l'utilisateur. La scène sonore appropriée est alors rendue en utilisant la librairie libpd afin d'exécuter des patchs PureData (Pd).
Notre serveur sert d'intermédiaire pour les requêtes en temps réel vers Google Places™ et Foursquare™, servant à trouver des entreprises, des bâtiments publics, des monuments, etc. L'application Autour peut ensuite parler de ces lieux de différentes manières, par exemple, par direction relative (« en avant à droite ») ou par direction cardinale (« nord-est »). Les noms de catégories (par exemple, « bar », « restaurant rapide », etc.) sont spatialisés de telle façon qu'ils ont l'air de venir de l'emplacement réel du lieu, ce qui donne une impression directe de sa direction et distance.
Sur le serveur, 490 nouvelles agences de transport de divers pays viennent d'être ajoutées aux 42 agences canadiennes. Cela couvre une bonne partie des États-Unis et de l'Europe. Les agences peuvent varier beaucoup selon leur manière de nommer les lignes et les directions, et par conséquent, nous ne pouvons garantir que chaque texte d'arrêt d'autobus aura du sens et sera aussi concis que possible.
Notre serveur contient aussi les données d'OpenStreetMap afin de trouver le point le plus proche sur la rue la plus proche, nommer les intersections, ainsi qu'obtenir le contour des parcs et de certains grands édifices tels que les hôpitaux. Les droits d'auteur sur les données d'OpenStreetMap appartiennent à leurs contributeurs, lesquels les rendent disponibles sous licence libre (ODbL).
Démonstration Vidéo
(Notez que Autour était autrefois nommé Services Audio In-Situ, ou "SAIS". Nous espérons préparer un nouveau vidéo cet automne.)
Nous avons travaillé avec des organisations francophones et anglophones pour personnes aveugles à Montréal, y compris L'Institut Nazareth et Louis Braille (INLB) et la Montréal Association for the Blind (MAB) pour tester Autour avec un certain nombre de participants aveugles. Ces tests utilisateurs ont pris la forme de bains de foule informels tout en sollicitant des réactions, de tests plus formels avec des tâches spécifiques à compléter dans les rues de Montréal, et aussi de déploiements à long terme où des personnes aveugles se sont fait prêter des iPhone à utiliser au cours de leur routine quotidienne. Les réactions ont généralement été positives pour le système dans l'ensemble, mais elles ont aussi souligné un certain nombre de problèmes, dont d'utilisabilité, qui ont été pris en compte durant la conception.
Un article qui résume les résultats de plusieurs de ces tests a été présenté à la conférence d'ACM Human Factors in Computing Systems (CHI) en 2013 (le lien est en bas).
Dans le cadre du programme Impact Award, CIRA a aussi tenu un concours « People's Choice Award », que Autour a gagné en recevant le plus de votes des visiteurs de mesh12, ce qui nous a placé au premier rang des quatre gagnants du Impact Award.
Publications et Présentations
Autour
J. R. Cooperstock.
Presentation to the CNIB TechnoVision+ Conference, Montreal, May 5, 2017.
Smartphone sensor reliability for augmented reality applications.
Blum, J.R., Greencorn, D., and Cooperstock, J.R. 2012,
9th International Conference on Mobile and Ubiquitous Systems: Computing, Networking and Services (Mobiquitous 2012), Beijing, China, December. Accept rate 31%.
Eyes-Free Environmental Awareness for Navigation.
El-Shimy, D.; Grond, F.; Olmos, A.; and Cooperstock, J. R. 2012. Springer Journal on Multimodal User Interfaces, Special Issue on Interactive Sonification.
Le mode de marquage : Les utilisateurs peuvent enregistrer leur propre contenu, selon les objets trouvés dans leur proximité générale, par example, « Ceci est un excellent restaurant », ou « Il y a un nid-de-poule dangereux ici sur le trottoir ». STATUT: 90 % complet ; n'a pas été testé avec des utilisateurs.
Le mode d'exploration : Une extension du mode Arrêt-et-écoute ; les utilisateurs peuvent demander au système de trouver des informations sur des régions plus loin de leur position actuelle. STATUT : pas encore implanté.
Marcher tout droit En plus de la fonctionnalité de base de sensibilisation environnementale, nous avons aussi expérimenté avec un mode additionnel qui sert à aider les utilisateurs aveugles à marcher en ligne droite. En utilisant le gyroscope de l'iPhone, nous pouvons détecter toute déviation du chemin droit, et jouer des sons à travers les écouteurs pour guider les utilisateurs dans la direction prévue.
Les tests utilisateurs indiquent qu'un utilisateur de ce mode marche plus droit que sans ce mode, et que ce mode est généralement adéquat pour maintenir l'utilisateur sur un passage pour piéton sur une distance de 15 m. Plus de détails sont donnés dans notre article.