• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Q&A :Microsofts Lili Cheng parle de machines émotionnellement intelligentes

    Crédit :CC0 Domaine public

    Pour que les machines soient vraiment intelligentes, certains chercheurs en intelligence artificielle (IA) pensent que les ordinateurs doivent reconnaître, comprendre et répondre aux émotions humaines. En bref, les machines doivent être dotées d'intelligence émotionnelle :la capacité d'exprimer et d'identifier ses émotions, et d'interagir avec empathie avec les autres.

    Cette qualité sans équivoque humaine « est la clé pour débloquer l'émergence de machines qui ne sont pas seulement plus générales, robuste et efficace, mais qui sont aussi alignés avec les valeurs de l'humanité, " Les chercheurs de Microsoft AI, Daniel McDuff et Ashish Kapoor, ont écrit dans un article récent.

    La maîtrise de l'intelligence émotionnelle permettra aux ordinateurs de mieux accompagner les humains dans leur santé physique et mentale, ainsi que l'apprentissage de nouvelles compétences, a écrit McDuff et Kapoor.

    Le Seattle Times s'est entretenu avec le vice-président de l'IA et de la recherche de Microsoft, Lili Chen, sur les développements de l'intelligence émotionnelle machine, et ce que cela signifie pour les humains. (La conversation a été modifiée pour plus de longueur et de clarté.)

    Q :Quelle est la technologie derrière l'intelligence émotionnelle des machines ?

    R : La façon dont le cerveau humain fonctionne est qu'il y a certaines choses que vous avez apprises au fil du temps, mais ensuite il y a d'autres choses que vous faites très intuitivement. Juste avant d'avoir un accident, votre corps pourrait se tendre et vous pourriez ne pas penser à (comment vous réagiriez) à certaines choses - (dans diverses autres situations) qui s'appliquent à de nombreuses émotions différentes comme le bonheur et la joie.

    (L'article de McDuff et Kapoor) a examiné comment les humains réagissent avec la peur. Pourrions-nous aider les systèmes automatisés à tirer des leçons de certaines des mêmes techniques ?

    Ils ont pris une simulation de quelqu'un conduisant, et ils ont mesuré le pouls de la personne pour voir comment elle a réagi si vous essayez d'éviter de vous écraser ou de heurter quelque chose.

    Et puis ils ont construit ce modèle et l'ont appliqué à une voiture automatisée qui conduit à travers la même simulation. Ils ont découvert que l'application du combat ou de la fuite (réaction) qu'une personne (expérimente), construire un algorithme autour de cela, et l'application de cela à une voiture automatisée l'a aidé à réagir très rapidement dans certaines situations.

    Ils n'utilisent pas seulement la peur. Ils combinent cela avec d'autres technologies plus rationnelles, tout comme une personne le ferait, parce que vous ne répondez pas toujours simplement à la peur.

    Ils peuvent simuler certaines choses dans un environnement virtuel tout en réalisant ces tests sans avoir réellement besoin d'instrumenter de vraies voitures. Il serait très difficile de faire ce genre de tests dans le monde réel.

    Q :Quelles sont les autres applications pratiques de l'intelligence émotionnelle machine ?

    R : Le vrai rêve est que (l'intelligence émotionnelle) puisse mieux vous aider dans des situations qui ont plus de sens pour vous - (par exemple, ) vous êtes dans une réunion stressante, ou vous voulez rencontrer quelqu'un de nouveau. Et aider les gens à mieux gérer leurs émotions et à mieux faire dans ce genre de situations serait vraiment génial... (Pas seulement) « ouvrez mon courrier. Aidez-moi à accomplir cette tâche. Aidez-moi à organiser ma réunion plus rapidement. »

    Q :Comment ces machines peuvent-elles aider les gens à gérer leurs émotions ?

    Xiaoice est un chatbot très populaire en Chine. Cela a commencé comme un projet de recherche. Le but du projet est vraiment fascinant, car contrairement à la plupart des aides qui vous aident à travailler, le but de Xiaoice était juste de faire une expérience engageante. Comment pouvons-nous aider le système à encourager les gens à parler (entre eux) et à les inciter à inclure ce chatbot dans les conversations ?

    L'une des choses que (Xiaoice) fait dans la conversation est de comprendre, "Oh, c'est une question, ou c'est un moment où tu veux juste discuter avec moi, et vous ne voulez pas vraiment que j'aie une réponse. » Donc (le chatbot) essaie de décomposer la conversation en différentes manières qu'une personne pourrait penser à la communication. Peut-être que le bot écoute juste un peu plus.

    Ils ont des conversations qui durent des heures avec des gens qui ont juste besoin d'empathie, parler à quelqu'un, faire plus de plaisir, choses sociales. C'est un exemple de système conçu pour étudier plus d'interactions émotionnelles-sociales, que d'être simplement productif.

    Q : C'est comme un robot de thérapie ?

    Il pourrait potentiellement (être). L'une des compétences pourrait être de vous aider si vous rencontrez des problèmes relationnels. Mais il fait aussi des choses très pratiques, comme vous enseigne l'anglais, ou vous aide à traduire, afin qu'il comprenne mieux quel est votre objectif, puis expose les compétences que vous voudriez.

    Q :Comment le bot peut-il comprendre si quelqu'un est triste ou pose une question ?

    R : C'est beaucoup de choses différentes, cela peut être l'intonation de votre voix ou les mots que vous dites, ainsi que le type d'interaction que vous avez, votre histoire et certaines des choses que vous avez faites dans le passé.

    Q :L'intelligence émotionnelle pourrait-elle également aider à lutter contre la perpétuation des biais dans les algorithmes d'IA ?

    R :C'est notre rêve. Nous sommes encore loin de l'IA qui sait quand elle est biaisée et quand elle ne l'est pas. Nous avons toujours ce problème avec les gens, c'est donc probablement quelque chose sur lequel nous devons travailler pendant longtemps. Mais si nous ne commençons pas à y penser et à y travailler maintenant à la racine des systèmes que nous créons, alors nous créerons à coup sûr des systèmes qui reproduiront beaucoup des problèmes que nous voyons dans la société.

    Nous avons une collaboration avec un groupe appelé OpenAI pour nous assurer que les outils sont disponibles, de sorte que vous n'avez pas besoin d'avoir un doctorat en IA pour faire des choses. Former les gens pour qu'ils soient capables de construire le genre de choses qu'ils veulent expérimenter est extrêmement critique pour la société dans son ensemble.

    Et (en termes de) jeux de données, nous voulons nous assurer que les hommes et les femmes, les personnes âgées et les plus jeunes, et ceux qui vivent dans des endroits différents sont tous représentés dans les données que nous utilisons pour former les modèles (IA). Si c'est juste un côté très limité de la société, alors juste d'un point de vue commercial, vous n'allez pas atteindre... beaucoup de vos clients, et nous voulons que ces outils résolvent beaucoup de problèmes.

    Q :À quel point pensez-vous que les développeurs sont loin d'intégrer l'intelligence émotionnelle dans chaque machine d'IA ?

    Cela dépend de la façon dont vous définissez l'intelligence émotionnelle. Ce que j'aime dans l'IA de conversation, c'est qu'à un niveau très basique, si vous n'avez pas de qualités humaines dans les systèmes, ils se sentent brisés. Si quelque chose ne sait pas comment répondre si vous le saluez, ou ne connaît pas une partie de votre histoire, ils ne se sentent pas très intelligents.

    Dans beaucoup de systèmes conversationnels que nous voyons, les gens pensent à (l'intelligence émotionnelle) tôt (dans le développement). Souvent, les personnes qui conçoivent les systèmes ne sont pas des ingénieurs, ce sont des écrivains, ou ce sont des designers qui ont réfléchi au type d'émotions que vous pourriez avoir si vous utilisez un produit. Nous sommes loin de rendre ce (processus) automatisé. Mais je pense que c'est formidable de voir les gens penser à (l'intelligence émotionnelle) au tout début.

    Q :Prévoyez-vous des dangers potentiels pour les machines dotées d'une intelligence émotionnelle ?

    R :Comme pour tout, plus les choses semblent naturelles, nous devons nous assurer que les gens comprennent quand les choses sont réelles ou non. Pour tout ce que nous faisons, nous avons un comité d'éthique pour examiner les produits de Microsoft et nous avons un ensemble de directives de conception.

    Nous appliquons les lois sur la confidentialité à tout ce que nous faisons et ... s'assurer que nous n'avons pas de biais dans nos propres données est très critique pour chaque produit que nous avons. Nous essayons de partager ces directives avec toute personne utilisant nos outils pour créer sa propre expérience.

    ©2019 The Seattle Times
    Distribué par Tribune Content Agency, LLC.




    © Science https://fr.scienceaq.com