Crédit :CC0 Domaine public
Les entreprises de presque tous les secteurs déploient l'intelligence artificielle pour simplifier les tâches du personnel et les tâches des consommateurs.
Un logiciel informatique enseigne aux agents du service client à être plus compatissants, les écoles utilisent l'apprentissage automatique pour rechercher des armes et des tireurs de masse sur le campus, et les médecins utilisent l'IA pour cartographier la cause première des maladies.
Des secteurs tels que la cybersécurité, le divertissement en ligne et la vente au détail utilisent la technologie en combinaison avec de larges bandes de données client de manière révolutionnaire pour rationaliser les services.
Bien que ces applications puissent sembler inoffensives, peut-être même utile, l'IA est seulement aussi bonne que les informations qui y sont introduites, ce qui peut avoir de graves conséquences.
Vous ne vous en rendez peut-être pas compte, mais l'IA aide à déterminer si vous êtes admissible à un prêt dans certains cas. Il y a des produits dans le pipeline qui pourraient faire en sorte que des agents de police vous arrêtent parce qu'un logiciel vous a identifié comme quelqu'un d'autre.
Imaginez si les gens dans la rue pouvaient vous prendre en photo, puis un ordinateur a scanné une base de données pour tout leur dire sur vous, ou si la caméra de sécurité d'un aéroport vous a signalé le visage pendant qu'un méchant traversait la TSA.
Ce sont des possibilités réelles lorsque la technologie censée renforcer la commodité intègre des préjugés humains dans le cadre.
"L'intelligence artificielle est un outil super puissant, et comme tout outil vraiment puissant, il peut être utilisé pour faire beaucoup de choses, dont certaines sont bonnes et d'autres peuvent être problématiques, " a déclaré Eric Sydell, vice-président exécutif de l'innovation chez Shaker International, qui développe des logiciels compatibles avec l'IA.
"Au début de toute nouvelle technologie comme celle-ci, vous voyez beaucoup d'entreprises essayer de comprendre comment l'intégrer dans leur entreprise, " Sydell a dit, "et certains le font mieux que d'autres."
L'intelligence artificielle a tendance à être un terme fourre-tout pour décrire des tâches effectuées par un ordinateur qui nécessiteraient généralement un humain, comme la reconnaissance vocale et la prise de décision.
Que ce soit intentionnel ou non, les humains font des jugements qui peuvent déborder dans le code créé pour que l'IA suive. Cela signifie que l'IA peut contenir des éléments raciaux implicites, les préjugés sexistes et idéologiques, ce qui a suscité une série d'efforts réglementaires fédéraux et étatiques.
Justice criminelle
En juin, le représentant Don Beyer, D-Va., a proposé deux amendements à un projet de loi de crédits de la Chambre qui empêcherait les fonds fédéraux de couvrir la technologie de reconnaissance faciale par les forces de l'ordre et obligerait la National Science Foundation à faire rapport au Congrès sur les impacts sociaux de l'IA.
"Je ne pense pas que nous devrions interdire à tous les dollars fédéraux de faire toute l'IA. Nous devons simplement le faire de manière réfléchie, " Beyer a déclaré à US TODAY. Il a déclaré qu'un logiciel d'apprentissage par ordinateur et de reconnaissance faciale pourrait permettre à la police d'identifier faussement quelqu'un, incitant un flic à prendre une arme dans les cas extrêmes.
"Je pense que très bientôt nous demanderons d'interdire l'utilisation de la technologie de reconnaissance faciale sur les caméras corporelles en raison des problèmes de temps réel, " a déclaré Beyer. " Lorsque les données sont inexactes, cela pourrait rendre la situation incontrôlable."
L'IA est utilisée dans l'analyse prédictive, dans lequel un ordinateur révèle la probabilité qu'une personne commette un crime. Bien que ce ne soit pas tout à fait dans la mesure des unités de police "précriminalité" du hit de science-fiction de Tom Cruise "Minority Report, " la technique a fait l'objet d'un examen minutieux pour savoir si elle améliore la sécurité ou perpétue simplement les inégalités.
Les Américains ont exprimé un soutien mitigé des applications d'IA, et la majorité (82 %) est d'accord pour dire qu'il devrait être réglementé, selon une étude réalisée cette année par le Center for the Governance of AI et le Future of Humanity Institute de l'Université d'Oxford.
En ce qui concerne la reconnaissance faciale en particulier, Les Américains disent que les forces de l'ordre mettront la technologie à profit.
Travaux
De nombreuses études suggèrent que l'automatisation détruira des emplois pour les humains. Par exemple, Les universitaires d'Oxford Carl Benedikt Frey et Michael Osborne ont estimé que 47% des emplois américains sont à haut risque d'automatisation d'ici le milieu des années 2030.
Alors que les travailleurs craignent d'être déplacés par les ordinateurs, d'autres sont embauchés grâce à un logiciel compatible avec l'IA.
La technologie peut faire correspondre des employés qui possèdent les compétences idéales pour un environnement de travail spécifique avec des employeurs qui peuvent être trop occupés pour que des humains sélectionnent les candidats.
Shaker International utilise des données recueillies à partir de tests, entretiens audio et curriculum vitae pour prédire comment une personne pourrait se comporter au travail.
Les « éléments d'information significatifs » comprennent « comment une personne travaillera, combien de temps ils resteront, seront-ils les meilleurs vendeurs ou les travailleurs de haute qualité, " a déclaré Sydell.
En utilisant l'IA, « nous pouvons nous débarrasser des processus qui ne fonctionnent pas bien ou qui sont redondants. Et nous pouvons offrir une meilleure expérience aux candidats en leur donnant un retour en temps réel tout au long du processus, " a déclaré Sydell.
Il a dit que si l'IA est mal déployée, cela peut aggraver l'environnement de travail, mais si c'est fait de manière réfléchie, cela peut conduire à des lieux de travail plus justes.
La finance
Pour le meilleur ou pour le pire, l'intelligence artificielle affecte les décisions financières que prennent les gens, et cela depuis des années. Il joue un rôle de plus en plus important dans la façon dont les traders investissent, et il est particulièrement efficace pour prévenir la fraude par carte de crédit, ont dit les experts.
Là où les choses deviennent discutables, c'est lorsque la technologie est utilisée pour décider si vous êtes digne d'emprunter de l'argent à une banque.
"Chaque fois que vous faites une demande de prêt, il peut y avoir une IA pour déterminer si ce prêt doit être accordé ou non, " dit Kunal Verma, co-fondateur d'AppZen, une plateforme d'IA pour les équipes financières avec des clients tels que WeWork et Amazon.
La technologie est souvent présentée comme une évaluation plus rapide et plus précise d'un emprunteur potentiel, car elle peut passer au crible des tonnes de données en quelques secondes. Cependant, il y a place à l'erreur.
Si les informations introduites dans un algorithme montrent que vous vivez dans une région où de nombreuses personnes sont en défaut de paiement, le système peut déterminer que vous n'êtes pas fiable, dit Verma.
"Il peut également arriver que la zone puisse avoir beaucoup de personnes de certaines minorités ou d'autres caractéristiques qui pourraient conduire à un biais dans l'algorithme, " dit Verma.
Solutions aux biais
Les biais peuvent s'infiltrer à presque toutes les étapes du processus d'apprentissage en profondeur ; cependant, les algorithmes peuvent également aider à réduire les disparités causées par un mauvais jugement humain.
Un type de solution consiste à modifier des attributs sensibles dans un ensemble de données pour compenser le résultat. Un autre est la présélection des données pour maintenir l'exactitude. Dans les deux cas, plus une entreprise a de données, plus l'IA peut être juste, dit Sydell.
"Il y a une raison pour laquelle Google, Facebook et Amazon sont des leaders de l'IA, " Sydell a déclaré. "C'est parce qu'ils ont des tonnes de données à analyser. D'autres entreprises ont accès au même type de technologie d'IA, mais ils peuvent ne pas avoir d'énormes quantités de données à utiliser et à appliquer. C'est la pierre d'achoppement."
Beyer, l'homme politique qui veut réguler l'IA, est favorable à ce que les humains revérifient les décisions prises par les ordinateurs "jusqu'à ce que la technologie soit parfaite, si jamais c'est le cas."
Il a dit qu'il vaudrait peut-être la peine de se demander si l'IA devrait être la solution incontournable à tous les problèmes, y compris si quelqu'un va en prison.
"Et quand c'est parfait, nous devons commencer à penser à la vie privée. Comme, est-il raisonnable de prendre une photo de quelqu'un et de l'exécuter dans une base de données ?", a déclaré Beyer. "Si l'IA peut lire une radiographie beaucoup plus rapidement, beaucoup plus précisément et avec moins de préjugés qu'un humain, c'est génial. Si nous donnons à l'IA la capacité de déclarer la guerre, nous avons de gros ennuis."
(c)2019 États-Unis aujourd'hui
Distribué par Tribune Content Agency, LLC.