Crédit :Shutterstock
Ibrahim Diallo aurait été licencié par une machine. Des articles de presse récents ont relayé la frustration croissante qu'il ressentait lorsque son passe de sécurité a cessé de fonctionner, sa connexion au système informatique a été désactivée, et finalement, il a été chassé du bâtiment par le personnel de sécurité. Ses managers n'ont pas été en mesure de fournir une explication, et impuissant à renverser le système.
Certains pourraient penser que c'était un avant-goût des choses à venir car l'intelligence artificielle a plus de pouvoir sur nos vies. Personnellement, J'ai tiré la conclusion inverse. Diallo a été licencié parce qu'un ancien manager n'avait pas renouvelé son contrat sur le nouveau système informatique et divers systèmes automatisés sont alors entrés en action. Les problèmes n'ont pas été causés par l'IA, mais par son absence.
Les systèmes n'affichaient aucune intelligence basée sur la connaissance, ce qui signifie qu'ils n'avaient pas de modèle conçu pour encapsuler les connaissances (telles que l'expertise des ressources humaines) sous forme de règles, texte et liens logiques. Également, les systèmes n'ont montré aucune intelligence informatique - la capacité d'apprendre à partir d'ensembles de données - comme la reconnaissance des facteurs qui pourraient conduire au licenciement. En réalité, il semble que Diallo ait été licencié à cause d'un système démodé et mal conçu déclenché par une erreur humaine. L'IA n'est certainement pas à blâmer - et c'est peut-être la solution.
La conclusion que je tirerais de cette expérience est que certaines fonctions des ressources humaines sont mûres pour l'automatisation par l'IA, Particulièrement comme, dans ce cas, l'automatisation stupide s'est révélée si inflexible et inefficace. La plupart des grandes organisations auront un manuel du personnel qui peut être codé comme un système expert avec des règles et des modèles explicites. De nombreuses entreprises ont créé de tels systèmes dans une gamme de domaines qui impliquent des connaissances spécialisées, pas seulement dans les ressources humaines.
Mais un système d'IA plus pratique pourrait utiliser un mélange de techniques pour le rendre plus intelligent. La manière dont les règles doivent être appliquées aux nuances de situations réelles peut être apprise à partir des dossiers RH de l'entreprise, de la même manière, les systèmes juridiques de common law comme l'Angleterre utilisent des précédents établis par des affaires antérieures. Le système pourrait réviser son raisonnement à mesure que davantage de preuves deviendraient disponibles dans un cas donné en utilisant ce que l'on appelle la "mise à jour bayésienne". Un concept d'IA appelé "logique floue" pourrait interpréter des situations qui ne sont pas en noir et blanc, appliquer des preuves et des conclusions à des degrés divers pour éviter le genre de prise de décision brutale qui a conduit au licenciement de Diallo.
La nécessité de plusieurs approches est parfois négligée dans la vague actuelle d'enthousiasme excessif pour les algorithmes de « deep learning », des réseaux de neurones artificiels complexes inspirés du cerveau humain qui peuvent reconnaître des modèles dans de grands ensembles de données. Comme c'est tout ce qu'ils peuvent faire, certains experts plaident désormais pour une approche plus équilibrée. Les algorithmes d'apprentissage en profondeur sont excellents pour la reconnaissance de formes, mais ils ne montrent certainement pas une compréhension profonde.
Utiliser l'IA de cette manière réduirait probablement les erreurs et, quand ils se sont produits, le système pourrait développer et partager les leçons avec l'IA correspondante dans d'autres entreprises afin d'éviter des erreurs similaires à l'avenir. C'est quelque chose qui ne peut pas être dit pour les solutions humaines. Un bon manager humain apprendra de ses erreurs, mais le prochain manager est susceptible de répéter les mêmes erreurs.
Alors quels sont les inconvénients ? L'un des aspects les plus frappants de l'expérience de Diallo est le manque d'humanité manifesté. Une décision a été prise, bien que par erreur, mais non communiqué ou expliqué. Une IA peut faire moins d'erreurs, mais serait-il mieux pour communiquer ses décisions ? Je pense que la réponse n'est probablement pas.
Perdre son emploi et son gagne-pain est un moment stressant et émouvant pour tous, sauf pour les employés les plus frivoles. C'est un moment où la sensibilité et la compréhension sont de mise. Donc, Pour ma part, je trouverais certainement le contact humain essentiel, peu importe à quel point le chatbot AI est convaincant.
Un employé licencié peut avoir le sentiment d'avoir été lésé et peut souhaiter contester la décision devant un tribunal. Cette situation soulève la question de savoir qui était responsable de la décision initiale et qui la défendra en droit. Le moment est certainement venu d'aborder les questions juridiques et éthiques posées par l'essor de l'IA, alors qu'il en est encore à ses balbutiements.
Cet article a été initialement publié sur The Conversation. Lire l'article original.