Les chatbots IA peinent encore à comprendre l'impact de leurs propos. Crédit :Shutterstock
À l'ère de l'information et de la désinformation, les avancées technologiques nous mettent au défi de repenser le fonctionnement du langage.
Prenez des chatbots conversationnels, par exemple. Ces programmes informatiques imitent la conversation humaine via du texte ou de l'audio. La société de matelas Casper a créé Insomnobot-3000 pour communiquer avec les personnes souffrant de troubles du sommeil. Cela donne à ceux qui ont du mal à dormir la possibilité de parler à « quelqu'un » pendant que tout le monde dort.
Mais Insomnobot-3000 ne se contente pas de bavarder avec ses utilisateurs, répondre à des questions. Il vise à réduire la solitude ressentie par les personnes souffrant d'insomnie. Ses mots ont le potentiel d'avoir un impact sur l'utilisateur humain.
Dans sa forme la plus basique, la langue fait les choses avec des mots. C'est une forme d'action qui fait plus que simplement énoncer des faits.
Cette observation assez simple a été faite dans les années 1950 par un philosophe obscur et légèrement excentrique de l'Université d'Oxford, John Langshaw Austin. Dans son livre, Comment faire des choses avec des mots , Austin a développé le concept de langage performatif.
Ce qu'Austin voulait dire, c'est que le langage ne fait pas que décrire les choses, il "fonctionne" en fait. Par exemple, si je dis que je lègue le collier de perles de ma grand-mère à ma fille, Je fais plus que simplement décrire ou rapporter quelque chose. Je fais une action significative.
Austin a également classé le discours en trois parties :le sens, utilisation et impact. Son étude et ses découvertes sur le langage sont devenues connues sous le nom de théorie des actes de langage. Cette théorie était importante non seulement en philosophie, mais aussi dans d'autres domaines comme le droit, littérature et pensée féministe.
Une prescription pour l'industrie des chatbots
Avec ça en tête, que peut nous dire la théorie d'Austin sur les chatbots conversationnels d'aujourd'hui ?
Mes recherches portent sur l'intersection du droit et du langage, et ce que la théorie d'Austin a à dire sur notre compréhension de la façon dont la machinerie créative modifie les opérations sociétales traditionnelles, comme l'IA écrivant des romans, robo-reporters écrivant des articles de presse, des cours en ligne ouverts et massifs (MOOC) remplaçant les salles de classe et les professeurs à l'aide d'un logiciel de notation de dissertation.
La technologie actuelle des chatbots vise à améliorer la capacité des chatbots à imiter le sens et l'utilisation de la parole. Cleverbot en est un bon exemple.
Mais l'industrie des chatbots devrait se concentrer sur le troisième aspect de la théorie d'Austin :déterminer l'impact du discours du chatbot sur la personne qui l'utilise.
Sûrement, si nous sommes capables d'apprendre aux chatbots à imiter le sens et l'utilisation de la parole humaine, faut-il aussi pouvoir leur apprendre à imiter son impact ?
Apprendre à avoir une conversation
Les derniers chatbots s'appuient sur un apprentissage automatique de pointe, connu sous le nom d'apprentissage en profondeur.
L'apprentissage automatique est une application de l'IA qui peut apprendre sans aide humaine. L'apprentissage en profondeur, qui s'inspire du réseau de neurones du cerveau humain, pousse l'apprentissage automatique encore plus loin. Les données sont introduites dans des réseaux de neurones artificiels profonds conçus pour imiter la prise de décision humaine.
Les chatbots conçus avec cette technologie de réseau neuronal ne se contentent pas de répéter ce qui est dit ou de produire des réponses prédéfinies. Au lieu, ils apprennent à avoir une conversation.
Les chatbots analysent des quantités massives de parole humaine, puis prendre des décisions sur la façon de répondre après avoir évalué et classé dans quelle mesure les possibilités reflètent ce discours. Pourtant, malgré ces améliorations, ces nouveaux bots souffrent encore de faux pas occasionnels puisqu'ils se concentrent principalement sur le sens et l'utilisation de leur discours.
Les chatbots précédents étaient bien pires. Moins de 24 heures après sa publication sur Twitter en 2016, le chatbot de Microsoft, un système d'IA appelé Tay (une abréviation formée à partir de « Thinking About You ») et inspiré des modèles de langage d'une adolescente, avait plus de 50 ans, 000 followers et avait produit plus de 100, 000 tweets.
Alors que Tay saluait le monde, ses premiers tweets étaient assez innocents. Mais ensuite, elle a commencé à imiter ses disciples.
Elle est rapidement devenue raciste, chatbot sexiste et carrément désagréable. Microsoft a été obligé de la mettre hors ligne.
Tay dépendait entièrement des données qui lui étaient transmises - et, plus important, sur les personnes qui fabriquaient et façonnaient ces données. Elle ne comprenait pas ce que les utilisateurs humains « faisaient » avec le langage. Elle ne comprenait pas non plus les effets de son discours.
Enseigner la mauvaise chose aux chatbots
Certains chercheurs pensent que plus les chatbots acquièrent de données, moins ils causeront d'offense.
Mais la prise en compte de toutes les réponses possibles à une question donnée peut prendre beaucoup de temps ou nécessiter une grande puissance de calcul. Plus, cette solution consistant à rassembler plus de données sur le sens et l'utilisation n'est en réalité que l'histoire qui se répète. Le "Zo, " un successeur de Tay, se débat toujours avec des questions difficiles sur la politique.
Mettre tout simplement, l'industrie des chatbots va dans la mauvaise direction — l'industrie des chatbots enseigne la mauvaise chose aux chatbots.
Chatbots transformateurs
Un meilleur chatbot ne regarderait pas seulement le sens et l'utilisation des mots, mais aussi les conséquences de ce qu'il dit.
La parole fonctionne aussi comme une forme d'action sociale. Dans son livre Problème de genre , La philosophe Judith Butler s'est penchée sur la performativité du langage et sur la façon dont elle améliore notre compréhension du genre. Elle considérait le genre comme quelque chose que l'on fait, plutôt que quelque chose que l'on est — qu'il est construit à travers la parole et les gestes de tous les jours.
Les chatbots conversationnels sont destinés à des publics divers. Se concentrer sur l'effet de la parole pourrait améliorer la communication puisque le chatbot serait également concerné par l'impact de ses paroles.
Dans une industrie technologique confrontée à son manque de diversité et d'inclusivité, un tel chatbot pourrait être transformateur, comme Butler nous l'a montré dans la construction du genre.
Il y a, bien sûr, une mise en garde. Se concentrer sur l'impact du langage est le trait caractéristique des canulars, la propagande et la désinformation — « fake news » — un acte de langage délibérément conçu, soucieux seulement d'obtenir un effet. Quelle que soit sa forme, les fausses nouvelles imite simplement le journalisme et sont créées uniquement pour produire un effet.
La théorie de la performativité dans le langage d'Austin nous a aidés à comprendre comment nous parler.
L'industrie des chatbots devrait désormais concentrer ses efforts sur l'impact de la parole, en plus du travail déjà fait sur le sens et l'usage des mots. Car un chatbot ne peut être véritablement conversationnel que s'il s'engage dans tous les aspects d'un acte de parole.
Cet article a été initialement publié sur The Conversation. Lire l'article original.