• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Après Uber, Incidents Tesla, peut-on faire confiance à l'intelligence artificielle ?

    Crédit :Université des sciences et de la technologie du Missouri

    Étant donné le choix de rouler dans un Uber conduit par un humain ou une version autonome, Lequel choisiriez-vous?

    Compte tenu de l'accident mortel du mois dernier d'un Uber autonome qui a coûté la vie à une femme à Tempe, Arizona, et le décès récent d'un pilote d'essai d'un véhicule semi-autonome développé par Tesla, la confiance des gens dans la technologie derrière les véhicules autonomes peut également avoir pris un coup. La fiabilité des voitures autonomes et d'autres formes d'intelligence artificielle est l'un des nombreux facteurs qui affectent la confiance des humains dans l'IA, l'apprentissage automatique et d'autres avancées technologiques, écrivent deux chercheurs de l'Université des sciences et technologies du Missouri dans un récent article de journal.

    "La confiance est la pierre angulaire de la relation de l'humanité avec l'intelligence artificielle, " écrivez le Dr Keng Siau, professeur et président des affaires et des technologies de l'information au Missouri S&T, et Weiyu Wang, un étudiant diplômé du Missouri S &T en sciences et technologies de l'information. "Comme tout type de confiance, la confiance dans l'IA prend du temps à construire, secondes pour casser et pour toujours réparer une fois qu'il est cassé."

    Les incidents Uber et Tesla soulignent la nécessité de repenser la façon dont les applications d'IA telles que les systèmes de conduite autonome sont développées, et pour les concepteurs et les fabricants de ces systèmes de prendre certaines mesures pour renforcer la confiance dans leurs produits, dit Siau.

    Malgré ces récents incidents, Siau voit un avenir prometteur pour l'IA, mais un problème de confiance qui doit être résolu.

    « Un processus dynamique »

    « Construire la confiance est un processus dynamique, impliquant le passage de la confiance initiale au développement continu de la confiance, " Siau et Wang écrivent dans "Building Trust in Artificial Intelligence, Apprentissage automatique, et robotique, " publié dans le numéro de février 2018 du Cutter Business Technology Journal.

    Dans leur article, Siau et Wang examinent les concepts dominants de confiance en général et dans le contexte des applications d'IA et de l'interaction homme-machine. Ils discutent des trois types de caractéristiques qui déterminent la confiance dans ce domaine – humaine, l'environnement et la technologie - et décrivez les moyens d'engendrer la confiance dans les applications d'IA.

    Siau et Wang soulignent cinq domaines qui peuvent aider à établir une confiance initiale dans les systèmes d'intelligence artificielle :

    • Représentation. Plus une technologie est "humaine", plus les humains sont susceptibles de lui faire confiance. "C'est pourquoi les robots humanoïdes sont si populaires, " Siau dit, ajoutant qu'il est plus facile « d'établir une connexion émotionnelle » avec un robot qui ressemble et agit plus comme un humain ou un chien robotique qui agit plus comme un chien. Peut-être que les véhicules autonomes de première génération devraient avoir un « chauffeur » humanoïde au volant pour aider à apaiser les inquiétudes.
    • Image ou perception. Les livres et les films de science-fiction ont donné une mauvaise image à l'IA, dit Siau. Les gens ont tendance à penser à l'IA en termes dystopiques, comme coloré par les films Terminator ou Bladerunner ou les romans d'Isaac Asimov et Philip K. Dick. "Cette image et cette perception affecteront la confiance initiale des gens dans l'IA, " écrivent Siau et Wang.
    • Avis d'autres utilisateurs. Les gens ont tendance à se fier aux critiques de produits en ligne, et "une critique positive conduit à une plus grande confiance initiale."
    • Transparence et « explicabilité ». Lorsque le fonctionnement interne d'une technologie est caché dans une "boîte noire, " cette opacité peut nuire à la confiance. " Pour faire confiance aux applications d'IA, nous devons comprendre comment ils sont programmés et quelle fonction sera réalisée dans certaines conditions, " dit Siau.
    • Testabilité. La possibilité de tester une nouvelle application d'IA avant qu'on lui demande de l'adapter conduit à une plus grande acceptation, dit Siau.

    Comment maintenir la confiance dans l'IA

    Au-delà du développement de la confiance initiale, cependant, les créateurs d'IA doivent également travailler pour maintenir cette confiance. Siau et Wang suggèrent sept façons de « développer une confiance continue » au-delà des phases initiales du développement du produit :

    • Convivialité et fiabilité. L'IA " devrait être conçue pour fonctionner facilement et intuitivement, " Siau et Wang écrivent. " Il ne devrait y avoir aucun temps d'arrêt ou plantage inattendu. "
    • Collaboration et communication. Les développeurs d'IA veulent créer des systèmes qui fonctionnent de manière autonome, sans intervention humaine. Les développeurs doivent se concentrer sur la création d'applications d'IA qui collaborent et communiquent facilement et en douceur avec les humains.
    • Sociabilité et lien. Intégrer des activités sociales dans des applications d'IA est un moyen de renforcer la confiance. Un chien robotique qui peut reconnaître son propriétaire et montrer de l'affection en est un exemple, Siau et Wang écrivent.
    • Sécurité et protection de la vie privée. Les applications d'IA reposent sur de grands ensembles de données, il sera donc crucial de garantir la confidentialité et la sécurité pour établir la confiance dans les applications.
    • Interprétabilité. Tout comme la transparence est déterminante pour établir la confiance initiale, l'interprétabilité – ou la capacité d'une machine à expliquer ses conclusions ou ses actions – aidera à maintenir la confiance.
    • Accès à l'emploi. Alors que les inquiétudes concernant le remplacement des humains au travail par l'IA continuent de croître, des politiques doivent être mises en place pour assurer le recyclage et l'éducation des personnes touchées par cette tendance.
    • Congruence des objectifs. "Comme l'intelligence artificielle a le potentiel de démontrer et même de surpasser l'intelligence humaine, il est compréhensible que les gens le traitent comme une menace, " Siau et Wang écrivent. " S'assurer que les objectifs de l'IA sont conformes aux objectifs humains est un précurseur dans le maintien d'une confiance continue. ajoutent les auteurs.

    "L'ère de l'IA va être troublante, transformateur et révolutionnaire, " Siau écrit dans un autre article récent ("How Will Technology Shape Learning?" publié dans le numéro de mars 2018 du Analyste mondial ). Mais dans cet environnement troublant, l'enseignement supérieur peut jouer un rôle important.

    "L'enseignement supérieur doit relever le défi de préparer les étudiants à la révolution de l'IA et permettre aux étudiants de surfer avec succès à l'ère de l'IA, " écrit Siau.


    © Science https://fr.scienceaq.com