• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Il y a une raison pour laquelle l'IA est si mauvaise en conversation

    Crédit :Phonlamai Photo/Shutterstock

    "Je suis désolé, Je n'ai pas tout à fait compris." Quiconque a déjà essayé d'avoir une conversation plus approfondie avec un assistant virtuel comme Siri sait à quel point cela peut être frustrant. Cela malgré le fait que des systèmes d'IA comme celui-ci s'introduisent de plus en plus dans nos vies, avec de nouvelles histoires à succès presque quotidiennement. Non seulement les IA aident désormais les radiologues à détecter les tumeurs, ils peuvent agir comme un répulsif contre les chats et même détecter des signaux de technologie extraterrestre potentielle depuis l'espace.

    Mais quand il s'agit de capacités humaines fondamentales, comme avoir une bonne conversation, L'IA est insuffisante. Il ne peut tout simplement pas fournir l'humour, la chaleur et la capacité d'établir un rapport cohérent et personnel qui est crucial dans les conversations humaines. Mais pourquoi est-ce et y arrivera-t-il jamais ?

    Les chatbots ont parcouru un long chemin depuis leurs débuts, avec Eliza du MIT dans les années 1960. Eliza était basée sur un ensemble de règles soigneusement élaborées qui donneraient l'impression d'être un auditeur actif et de simuler une séance avec un psychothérapeute.

    Des systèmes comme Eliza étaient bons pour donner une première impression sophistiquée, mais ont été facilement découverts après quelques tours de conversation. De tels systèmes ont été construits sur des efforts pour rassembler autant de connaissances mondiales que possible, et ensuite le formaliser en concepts et comment ceux-ci sont liés les uns aux autres. Les concepts et les relations ont ensuite été intégrés à la grammaire et aux lexiques qui aideraient à analyser et à générer le langage naturel à partir de représentations logiques intermédiaires. Par exemple, la connaissance du monde peut contenir des faits tels que "le chocolat est comestible" et "la roche n'est pas comestible".

    Élisa.

    Apprendre des données

    Les systèmes d'IA conversationnels d'aujourd'hui sont différents en ce sens qu'ils ciblent la conversation en domaine ouvert - il n'y a pas de limite au nombre de sujets, questions ou instructions qu'un humain peut poser. Ceci est principalement réalisé en évitant complètement tout type de représentation intermédiaire ou d'ingénierie explicite des connaissances. En d'autres termes, le succès de l'IA conversationnelle actuelle repose sur la prémisse qu'elle ne connaît et ne comprend rien du monde.

    Le modèle d'apprentissage en profondeur de base sous-jacent à la plupart des travaux actuels dans le traitement du langage naturel est appelé un réseau de neurones récurrent, grâce à quoi un modèle prédit une séquence de mots de sortie sur la base d'une séquence de mots d'entrée au moyen d'une fonction de probabilité qui peut être déduite des données. Compte tenu de la saisie de l'utilisateur « Comment allez-vous ? » le modèle peut déterminer qu'une réponse statistiquement fréquente est « Je vais bien ».

    La puissance de ces modèles réside en partie dans sa simplicité – en évitant les représentations intermédiaires, plus de données conduiront généralement à de meilleurs modèles et à de meilleurs résultats. L'apprentissage pour une IA est très similaire à la façon dont nous apprenons :digérer un très grand ensemble de données d'entraînement et le comparer avec des données connues mais invisibles (ensemble de test). En fonction des performances de l'IA par rapport à l'ensemble de test, le modèle prédictif de l'IA est ensuite ajusté pour obtenir de meilleurs résultats avant que le test ne soit répété.

    Mais comment déterminez-vous à quel point c'est bon? Vous pouvez regarder la grammaire des énoncés, à quel point ils sonnent "humains", ou la cohérence d'une contribution dans une séquence de tours de conversation. La qualité des extrants peut également être déterminée comme une évaluation subjective de la mesure dans laquelle ils répondent aux attentes. DeepDrumpf du MIT est un bon exemple - un système d'IA formé à l'aide des données du compte Twitter de Donald Trump et qui ressemble étrangement à lui, commenter un certain nombre de sujets tels que les soins de santé, femmes, ou d'immigration.

    Cependant, les problèmes commencent lorsque les modèles reçoivent des entrées "incorrectes". Tay de Microsoft était une tentative de créer une IA conversationnelle qui « s'améliorerait » progressivement et deviendrait plus humaine en ayant des conversations sur Twitter. Tay est devenu tristement célèbre d'un philanthrope à un tyran politique avec une vision du monde incohérente et extrémiste dans les 24 heures suivant son déploiement. Il a rapidement été mis hors ligne.

    Comme les machines apprennent de nous, ils prennent aussi nos défauts - nos idéologies, humeurs et opinions politiques. Mais contrairement à nous, ils n'apprennent pas à les contrôler ou à les évaluer - ils mappent seulement une séquence d'entrée à une séquence de sortie, sans filtre ni boussole morale.

    Cela a, cependant, également été présenté comme un avantage. Certains prétendent que les récents succès du débat sur le projet d'IBM, une IA capable de construire des « arguments convaincants fondés sur des preuves » sur un sujet donné, est dû à son manque de partialité et d'influence émotionnelle. Pour faire ça, il recherche des données dans une grande collection de documents et extrait des informations pour exprimer le point de vue opposé à la personne avec laquelle il débat.

    Prochaines étapes

    Mais même si plus de données peuvent aider l'IA à apprendre à dire des choses plus pertinentes, cela sonnera-t-il jamais vraiment humain ? Les émotions sont essentielles dans la conversation humaine. Reconnaître la tristesse ou le bonheur dans la voix d'une autre personne ou même dans un message texte est extrêmement important lorsque nous adaptons notre propre réponse ou portons un jugement sur une situation. Nous devons généralement lire entre les lignes.

    Les IA conversationnelles sont essentiellement des psychopathes, sans sentiments ni empathie. Cela devient douloureusement clair lorsque nous crions notre numéro de client au téléphone pour la septième fois, dans l'espoir que le système reconnaîtra notre agonie et nous mettra en contact avec un représentant du service client humain.

    De la même manière, les IA conversationnelles ne comprennent généralement pas l'humour ou le sarcasme, que la plupart d'entre nous considèrent comme crucial pour une bonne conversation. Bien que les programmes individuels conçus pour apprendre à l'IA à repérer les commentaires sarcastiques parmi une série de phrases aient eu un certain succès, personne n'a encore réussi à intégrer cette compétence dans une véritable IA conversationnelle.

    Il est clair que la prochaine étape pour les IA conversationnelles est d'intégrer cette fonction et d'autres fonctions "humaines". Malheureusement, nous n'avons pas encore les techniques disponibles pour le faire avec succès. Et même si nous le faisions, le problème reste que plus nous essayons d'intégrer un système, plus il faudra de puissance de traitement. Il faudra donc peut-être un certain temps avant que nous ayons les types d'ordinateurs disponibles qui rendront cela possible.

    Les systèmes d'IA manquent clairement encore d'une compréhension plus profonde du sens des mots, les opinions politiques qu'ils représentent, les émotions véhiculées et l'impact potentiel des mots. Cela les met longtemps loin de sonner réellement humain. Et cela peut prendre encore plus de temps avant qu'ils ne deviennent des compagnons sociaux qui nous comprennent vraiment et puissent avoir une conversation au sens humain du terme.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com