Crédit :CC0 Domaine public
Avez-vous déjà l'impression que vos assistants vocaux, que ce soit Siri, Alexa, ou Google, vous ne comprenez pas ? Vous pourriez répéter votre question un peu plus lentement, un peu plus fort, mais finalement, vous obtiendrez les informations que vous demandiez pour vous lire dans les tons agréables mais sans vie de votre assistant à commande vocale.
Mais et si parler à votre technicien domestique n'était pas une option ? C'est la question qui se pose à bon nombre des 3 millions de personnes aux États-Unis qui bégaient, plus les milliers d'autres qui ont des troubles de la parole qui ne se limitent pas au bégaiement, et beaucoup se sentent exclus.
"Quand ce truc a commencé à sortir, J'étais partout, " a déclaré Jacquelyn Joyce Revere, un scénariste de Los Angeles qui bégaie. « À LA, J'ai besoin d'un GPS tout le temps, donc cela semblait être une façon plus pratique de vivre la vie que je veux vivre."
Revere a dit que depuis 2011, elle a essayé d'utiliser Siri sur iPhone et Apple Watch, et Alexa via un Amazon Fire Stick. Bien qu'elle continue d'essayer d'utiliser ces assistants vocaux, ses tentatives la laissent souvent déçue.
"Chaque fois que j'essaie de l'utiliser, c'est un autre clou dans le cercueil, un autre rappel que cette technologie n'était pas faite pour moi, " dit Revere.
Mais il n'y a pas que Alexa et ses amis
Les frustrations de Revere ne se limitent pas aux assistants vocaux. Les interfaces téléphoniques automatisées posent également des problèmes. Par exemple, elle a dit qu'il n'est pas rare qu'elle passe jusqu'à 40 minutes en attente, seulement pour être décroché d'un appel par une opératrice de machine lorsqu'elle ne peut prononcer aucun mot.
Selon Jane Fraser, président de la Fondation Bégaiement, Les interfaces téléphoniques sont un problème courant au sein de la communauté du bégaiement depuis des années. Elle a déclaré que la Stuttering Foundation recevait des centaines d'e-mails demandant de l'aide sur la façon de les gérer, alors que les nouvelles technologies ont aidé d'anciens problèmes à refaire surface sous de nouvelles formes.
"Dans l'ensemble, la technologie a aidé les personnes qui bégaient, mais quand tu essaies de lui dire ce que tu veux, vous obtenez la même expérience au téléphone avec une machine ou une autre personne - les deux raccrochent, ", a déclaré Fraser.
Différents types de bégaiement sont entendus par les assistants vocaux de différentes manières. Certaines de ces formes de bégaiement comprennent des prolongations, où les sons s'étendent; répétitions, lorsque les locuteurs répètent des sons ou des mots ; et des blocs, qui sont les pauses qui se produisent lorsqu'un locuteur ne peut pas prononcer un mot. Fraser a déclaré que les personnes qui bégaient avec des blocs ont souvent le plus de problèmes avec les assistants vocaux et les interfaces téléphoniques à commande vocale.
"S'il n'y a pas de voix, l'assistant vocal n'entend rien, donc il s'éteint ou s'interrompt, ", a déclaré Fraser.
Revere bégaie souvent avec des blocs, et elle a dit qu'ils confondent les assistants vocaux plus que tout autre type de bégaiement.
"Si j'ai un blocage, ils s'éteignent complètement, " Revere dit, bien qu'elle ait également noté qu'Alexa est un peu plus patiente que Siri.
Tayler Enyart, un parajuriste d'Elk Grove, Californie, est un autre utilisateur d'Alexa et de Siri qui bégaie par blocs. De la même manière que Revere, elle a du mal à utiliser cette technologie et se sent exclue à cause de cela.
"Utiliser ces technologies n'est pas facile pour moi, " dit Enyart. " Je les ai tous essayés, mais ils m'ont tous coupé. C'est vraiment frustrant, alors j'essaie juste de les éviter. Une partie de moi se sent vraiment exclue, mais une autre partie est comme, « Je suis habitué à ça. »
Comment Big Tech réagit
Pomme, Amazone, et Google ont tous leurs propres moyens de fournir l'accessibilité aux personnes qui bégaient ou qui ont d'autres troubles de la parole. Amazon et Apple ont publié des fonctionnalités qui permettent aux utilisateurs de taper des commandes sur Alexa ou Siri, comme Tap to Alexa avec l'Echo Show, ou Tapez sur Siri avec iOS 11 en 2018.
Google met constamment à jour son assistant Google avec de nouveaux échantillons vocaux pour mieux comprendre les personnes avec des accents ou des troubles de la parole. Et en 2019, la société a annoncé un projet de recherche appelé Project Euphonia, dont l'objectif est de créer à terme un modèle de reconnaissance capable de comprendre les personnes ayant des troubles de la parole sur toutes les plateformes informatiques.
Le projet, qui a été inspiré par les patients SLA, vise à collecter suffisamment d'échantillons audio pour créer un modèle sonore capable de prédire et de comprendre les schémas vocaux altérés.
"Il y a une révolution en cours dans la façon dont les gens utilisent la voix pour interagir avec les ordinateurs, mais certaines personnes sont laissées pour compte, " a déclaré Michael Brenner, professeur de mathématiques appliquées à Harvard et l'un des chercheurs à l'origine du projet Euphonia.
Selon Brenner, Le plus grand défi du projet Euphonia est le manque de données. Parce que la technologie de reconnaissance vocale est formée pour entendre la parole standard, Le projet Euphonia a besoin d'échantillons audio de troubles de la parole pour entraîner les ordinateurs à les comprendre également. Idéalement, Le projet Euphonia aurait accès à des dizaines de millions d'échantillons audio, créer un modèle statistique qui peut prédire et comprendre les sons des troubles de la parole, mais c'est une norme impossible.
"Nous ne voulons pas trop promettre parce que nous ne savons pas ce qui est possible, mais nous voulons aider les gens, " a déclaré Brenner. " Il serait idéal d'avoir suffisamment d'échantillons pour avoir un modèle général, mais nous ne le faisons pas. Nous voulons découvrir comment faire des choses utiles avec le discours que nous avons."
Erich Reiter est un ingénieur en reconnaissance vocale et un orthophoniste qui a aidé à développer Siri lorsqu'il travaillait pour Nuance Communications. Il est très conscient des échecs de la technologie de reconnaissance vocale pour les personnes ayant des troubles de la parole depuis 2012.
Cette année, un accident de plongée en eau peu profonde a rendu tétraplégique l'un des amis de Reiter, et il ne pouvait communiquer que par le biais d'un dispositif de communication augmentée et alternative (AAC), similaire à ce que le physicien théoricien anglais Stephen Hawking a utilisé. Selon Reiter, cela prendrait trois minutes à son ami pour dire quelque chose d'aussi simple que « j'ai besoin d'eau ».
This experience inspired Reiter to return to school to become a speech pathologist and eventually create voice recognition technology that helps people who stutter.
Reiter is now one of the founders of Say-IT Labs, a Brussels-based start-up that is making video games intended to help people who stutter practice effective speech techniques. Leur objectif, according to Reiter, is to make speech therapy more accessible.
"If you see a school SLP, chances are they have a caseload of about 60-80 students, " Reiter said. "That doesn't give them enough time to work on real progress."
Say-IT Labs is currently working on a game called Fluency Friends, where players control colorful cartoon characters through treacherous obstacles. Only instead of a joystick or a keyboard, the game will prompt players with words or sentences they must say to move through the level.
Similar to Project Euphonia, Say-IT Labs needs data to create an acoustic model for the game that understands stuttered speech. Jusque là, according to Reiter, his team has collected samples from 50 participants.
Unlike Project Euphonia, cependant, Say-IT Labs requires much less data to work with because the sound of stuttered speech is less variable than the impaired speech found in patients with neurological disorders, according to Reiter.
"I hope that the kind of technology we're creating will allow us to help educate SLPs and people who stutter, instead of just helping 50 people (through conventional therapy), " Reiter said. "For the 1% of the population who stutters, it would be a gift to reach 1, 000."
Despite efforts to help, voice assistants still remain inaccessible for many people who stutter. Hannah Arnold is a dental receptionist from Kent, Washington, who first tried using Siri and Alexa in 2013. Her first attempts came a little anxiously, as she wasn't sure how the machines would respond to her stutter.
"I have trouble with Ws. It takes me a while to say them, " Arnold said. "So Siri would always interrupt me when I'd try to say, "Hey, Siri, what is the weather going to be like today?'"
Aujourd'hui, Arnold rarely uses voice assistants, but she sees how they could easily make her life better. Par exemple, instead of having to type from the screen on her Apple Watch, or ask for directions in her car, she could just ask Siri instead.
"It's pretty hard because I feel like voice recognition—and talking to other technology—is expanding, " Arnold said. "But with advancements in new technology, I'm hopeful we'll have more accommodations."
(c) 2020 États-Unis aujourd'hui
Distribué par Tribune Content Agency, LLC.