Crédit :CC0 Domaine public
OK, nous comprenons. Le sentiment gee-whiz de l'intelligence artificielle, tel qu'il apparaît dans sa gloire de développement, est avec nous et nous surfons volontiers sur la vague.
Une phase qui donne à réfléchir est cependant définitivement dans les coulisses. Maintenant que nous avons l'IA, qu'est-ce qu'on fait avec, et est-ce que nous gérons, même évaluer, ça va bien ?
"Comme les joueurs vidéo à la recherche du prochain hack, les employés devront surveiller, comprendre, questionner et exploiter les vulnérabilités de leurs outils et en rendre compte, " dit John Sumser, analyste principal chez Examinateur RH .
« Les employés du numérique sont au cœur de notre avenir, mais les gérer est très différent de gérer des personnes ou des logiciels plus anciens. » Cité dans Responsable des ressources humaines :"...comprenez que nous sommes au début de la construction et de l'utilisation d'outils intelligents, il y a beaucoup de travail devant nous et nous devrons désormais penser nos machines différemment."
Les partisans de l'IA des décisions utilisées par les gouvernements et les grandes organisations, après tout, ont un impact sur nos vies.
La grande question est, qui et quoi entraînent l'IA à prendre des décisions ? Y a-t-il des préjugés dans la phase de formation ? Si c'est le cas, comment être sûr que le résultat est la décision la plus juste ?
Long et court, Les chercheurs d'IBM se sont employés à trouver des moyens de réduire les biais dans les ensembles de données utilisés pour former l'IA. Que font-ils? Allons-nous simplement regarder un autre livre blanc ? Ils font plus que cela.
Ils fournissent un système de notation qui peut classer l'équité relative d'un système d'IA.
L'équité n'est pas seulement quelque chose qui a attiré l'attention d'IBM. Zoé Kleinman, journaliste technologique, Nouvelles de la BBC, a écrit, « On craint de plus en plus que les algorithmes utilisés par les géants de la technologie et d'autres entreprises ne soient pas toujours équitables dans leur prise de décision. »
L'arsenal d'outils technologiques d'intelligence artificielle d'IBM comprend désormais un moyen de débusquer les préjugés inconscients dans la prise de décisions. Le biais ne vient pas toujours habillé de néons et d'étiquettes magiques. La moitié du temps, nous contre-interrogeons même notre propre capacité à juger, se sentir mal à l'aise à propos de l'autre moitié d'entre nous qui soupçonne que la décision a été truquée par un parti pris. Ne fais pas d'erreur, bien que, nos renifleurs ont souvent raison.
"N'importe quel nombre de prédispositions peut être intégré dans un algorithme, caché dans un ensemble de données ou conçu d'une manière ou d'une autre lors de l'exécution d'un projet, " a déclaré Jack Murtha mercredi dans Actualités de l'analyse de la santé .
IBM fait l'actualité de cette semaine sur l'IA.
IBM a annoncé un service logiciel fonctionnant sur IBM Cloud qui peut détecter les biais et expliquer comment l'IA prend des décisions - au fur et à mesure que les décisions sont prises, dit Murtha.
« Nous donnons une nouvelle transparence et un nouveau contrôle aux entreprises qui utilisent l'IA et sont confrontées au risque le plus potentiel de toute prise de décision erronée, " le directeur général de Watson AI chez IBM, Beth Smith, déclaré.
"Les clients pourront voir, via un tableau de bord visuel, comment leurs algorithmes prennent des décisions et quels facteurs sont utilisés pour formuler les recommandations finales, " a déclaré Kleinman.
Le logiciel IBM basé sur le cloud sera open source, et fonctionnera avec certains frameworks couramment utilisés pour la construction d'algorithmes. Alors, qu'est-ce que ça va vraiment faire ?
Murtha l'a étoffé. (1) Il signale les « résultats injustes » en temps réel et (2) recommande des données qui pourraient atténuer les biais ; (3) IBM propose également des services de conseil pour nettoyer la prise de décision via des processus métier plus solides et des interfaces homme-IA.
La nouvelle contribution d'IBM pourrait ajouter une autre couche à la compréhension et à la lutte contre les biais.
L'injustice peut se traduire par un manque de diversité dans les quantités de données sur lesquelles les algorithmes sont entraînés.
Un rapport de CNBC a noté que "la composition de l'industrie technologique qui crée ces algorithmes n'était pas parfaite. La Silicon Valley a longtemps été critiquée pour son manque de diversité".
Kay Firth Butterfield, responsable de l'IA et du machine learning au Forum économique mondial, a été cité par CNBC.
"Quand on parle de biais, nous nous inquiétons tout d'abord de l'orientation des personnes qui créent les algorithmes, " Firth-Butterfield a déclaré. "Nous devons rendre l'industrie beaucoup plus diversifiée dans l'Ouest."
Un étudiant de troisième cycle du Massachusetts Institute of Technology en 2016 avait découvert que « la reconnaissance faciale ne repérait son visage que si elle portait un masque blanc, " a déclaré Kleinman.
Et après? "IBM Services travaillera avec les entreprises pour les aider à utiliser le nouveau service. IBM Research publiera une boîte à outils dans la communauté open source, " mentionné À la recherche de l'alpha . ZDNet avait plus de détails à partager sur cette boîte à outils. IBM ouvrira les "outils de détection de biais" d'IBM Research via une "boîte à outils AI Fairness 360". Attendez-vous à voir une bibliothèque d'algorithmes, code et tutoriels.
ZDNet 's Larry Dignan :« L'espoir est que les universitaires, les chercheurs et les data scientists intégreront la détection des biais dans leurs modèles."
Ceux qui souhaitent approfondir une telle boîte à outils peuvent consulter les outils d'IBM sur Github.
© 2018 Tech Xplore