Crédit :CC0 Domaine public
La professeure de psychologie Michelle Drouin voulait savoir comment les gens réagiraient si un chatbot pouvait imiter un humain.
Elle et ses collègues chercheurs ont donc divisé 350 étudiants de premier cycle en trois groupes. Un groupe a été informé qu'il interagirait avec un bot. On a dit à un autre qu'il s'agissait d'une vraie personne. Et le dernier n'a été informé qu'après l'interaction qu'ils avaient communiquée avec un algorithme.
Les deux premiers groupes étaient presque également satisfaits de l'expérience. Mais le dernier groupe ne l'était pas.
"Ils ont ressenti un sentiment inquiétant à ce sujet, " a déclaré Drouin de l'Université Purdue Fort Wayne. "Ils pensaient qu'ils étaient trompés."
C'est une réaction à laquelle les entreprises de la Silicon Valley voudront peut-être prêter une attention particulière alors qu'elles continuent de repousser les limites de l'intelligence artificielle pour créer des assistants virtuels toujours plus réalistes.
Mardi, Google a dévoilé un assistant capable de passer des appels pour planifier des rendez-vous tout en parlant d'une voix humaine presque parfaite remplie de « ums » et « ahs ». À aucun moment de la présentation, le logiciel de Google n'a révélé qu'il n'était pas humain, ce qui a déclenché un débat sur l'éthique et le consentement.
Jeudi, Google a fait marche arrière en disant explicitement que le service, connu sous le nom de Google Duplex, inclurait une divulgation indiquant qu'il ne s'agit pas d'une personne.
"Nous comprenons et apprécions la discussion autour de Google Duplex, comme nous l'avons dit depuis le début, la transparence dans la technologie est importante, " a déclaré un porte-parole de l'entreprise. " Nous concevons cette fonctionnalité avec la divulgation intégrée, et nous nous assurerons que le système est correctement identifié."
La crainte que les gens soient dupés par la nouvelle fonctionnalité de Google souligne l'urgence pour la société de déterminer le type de relation qu'elle souhaite avec ses aides artificielles alors que les entreprises technologiques se rapprochent de la traversée de la soi-disant vallée étrange. C'est un terme utilisé pour décrire le fossé entre un robot ou un logiciel qui a juste assez d'imperfections pour susciter le scepticisme et un autre qui ne se distingue pas d'un humain.
Allons-nous exiger de savoir quand nous parlons avec un bot ? Ou accepterons-nous que nous finirons par converser sans le vouloir avec des algorithmes ? Leur accorderons-nous la même gentillesse et la même empathie que nous exigeons les uns des autres ? Ou les voyons-nous simplement comme des outils, indigne des valeurs qui unissent la société civile ? Ce sont des questions d'éthiciens, les développeurs et les concepteurs s'interrogent. La façon dont nous répondons pourrait avoir des implications de grande envergure sur la façon dont les humains se traitent finalement les uns les autres.
"Ça va nous changer, " dit Pamela Pavliscak, professeur au Pratt Institute et fondateur de Change Sciences, une société de conseil spécialisée dans le lien émotionnel que les gens entretiennent avec la technologie. "Nous concevons la technologie et la technologie, à son tour, nous conçoit. Il serait assez naïf de penser que nous resterons les mêmes."
En utilisant une paire d'appels téléphoniques enregistrés, Le directeur général de Google, Sundar Pichai, a démontré cette semaine aux participants à la conférence des développeurs de l'entreprise comment son assistant virtuel pouvait appeler et prendre un rendez-vous chez le coiffeur et essayer de réserver une table dans un restaurant.
"Mm-hmm, " dit l'assistante ersatz d'une voix naturelle de femme lorsque l'employée du salon lui a demandé d'attendre un moment.
L'assistant négocie alors des horaires alternatifs pour le rendez-vous, jeter un "euh" pour faire bonne mesure. Rien n'indique que l'employé du salon ait la moindre idée que la voix à l'autre bout du fil est générée par ordinateur.
Il en va de même pour un employé de restaurant parlant à un assistant virtuel masculin, qui utilise des expressions familières telles que « Oh, I gotcha" pour exprimer ma compréhension.
La volonté de Google de révéler que Duplex n'est pas une personne réelle pourrait pousser d'autres entreprises à faire de même. Mais les Américains, qui sont déjà habitués aux appels automatisés et aux menus d'appels automatisés, pourraient néanmoins un jour se demander si la voix à l'autre bout du fil est réelle.
Pichai a déclaré que le service pourrait être une aubaine pour les entreprises en effaçant un obstacle de plus pour les clients, qui n'ont peut-être pas le temps de faire de tels appels. Tout s'intègre parfaitement dans le nouveau slogan de l'entreprise, "Faites le faire Google, " qui incite les consommateurs à tirer parti de l'assistant depuis leur téléphone, haut-parleurs intelligents, voitures, Téléviseurs et ordinateurs portables.
Que personne n'oublie, les tâches les plus insignifiantes que les gens sous-traitent à Google, plus l'entreprise connaît ses habitudes. Cela sert à deux fins :cela permet à Google de fournir aux consommateurs de meilleurs résultats de recherche, et il permet aux annonceurs de cibler plus précisément les publics. Et en faisant sonner un assistant virtuel réel, les utilisateurs baissent la garde, donner à Google des données encore plus précieuses.
Cela en soi trouble les défenseurs de la vie privée. Un assistant au son authentique incitera-t-il les utilisateurs à révéler leurs détails les plus privés à une entreprise qui a amassé 95 milliards de dollars de revenus publicitaires l'année dernière ? Et si l'assistant appelle un médecin ? Google connaît-il désormais les antécédents médicaux de quelqu'un ?
C'est quelque chose que Google devra résoudre étant donné les préoccupations accrues d'aujourd'hui concernant la confidentialité après le scandale Cambridge Analytica de Facebook. Mais les éthiciens disent que les plus grandes préoccupations sont les conséquences imprévues d'un monde de plus en plus inondé de robots et de services automatisés au lieu d'une véritable interaction humaine.
« La raison pour laquelle cela peut aller de travers est que la communication et les relations humaines sont basées sur la réciprocité, " a déclaré David Ryan Polgar, un éthicien de la technologie. "Et si je passe du temps à penser à quelqu'un et à lui écrire mais que l'autre personne ne le fait pas ? Ils ne font pas le même effort mais ils veulent quand même profiter d'une relation approfondie."
Par conséquent, il a dit, la communication devient dépréciée.
"Ça devient transactionnel, uniquement sur les mots et non sur le sens, " dit Polgar, qui pense que Google et les autres développeurs d'IA ont la responsabilité éthique de révéler que leurs assistants ne sont pas humains.
Dennis Mortensen, PDG et fondateur de la société d'assistants virtuels AI x.ai, said he fears people will eventually determine it's a waste of time being kind to one another if an increasing amount of interaction is automated. But he has hope that won't come to pass.
"You can engineer good behavior, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
©2018 Los Angeles Times
Distribué par Tribune Content Agency, LLC.