Crédit :CC0 Domaine public
Supposons que 100 personnes vivent près d'un lac. Si au moins 10 d'entre eux surpêchent cette année, toute la population de poissons s'éteindra. Chacun suppose qu'au moins 10 autres surpêcheront, et il n'y aura plus rien à pêcher dans les années à venir.
Puisque le poisson sera parti de toute façon, ils décident tous qu'ils pourraient tout aussi bien surpêcher. Tous les poissons meurent. Est-ce que tout le monde mérite d'être blâmé ?
Cela dépend s'ils auraient pu se coordonner pour changer le résultat et le coût de le faire, selon de nouvelles recherches de Joseph Halpern, le professeur d'ingénierie Joseph C. Ford, et Meir Friedenberg, un doctorant en informatique. S'appuyant sur les travaux fondamentaux de Halpern sur la causalité, ils ont développé un modèle mathématique pour calculer la culpabilité sur une échelle de zéro à un.
La recherche – située à l'intersection de l'informatique, la philosophie et la psychologie cognitive - pourraient potentiellement être utilisées pour guider le comportement d'agents artificiellement intelligents, comme les véhicules sans conducteur, pour les aider à se comporter d'une manière "morale".
"L'une des choses que nous voulions vraiment faire est de donner un cadre qui nous permette d'appliquer ce genre de notions juridiques et philosophiques à des systèmes autonomes, " dit Friedenberg, premier auteur de « Blameworthiness in Multi-Agent Settings, " qui a été présenté lors de la conférence AAAI 2019 sur l'intelligence artificielle en février. " Nous pensons que cela va être important si nous voulons intégrer efficacement les systèmes autonomes dans la société. "
Dans des travaux antérieurs, Halpern et ses collègues ont défini la culpabilité des individus grosso modo comme la mesure dans laquelle ils croient que leurs actions pourraient changer l'issue d'un événement. Par exemple, si vous avez voté contre un candidat que vous pensiez perdre par une seule voix, ta culpabilité en serait une, le maximum; mais si vous pensiez que le candidat perdrait par milliers de voix, votre culpabilité serait bien moindre.
Dans le récent article, Friedenberg et Halpern ont d'abord donné une définition de la culpabilité d'un groupe - essentiellement, une mesure du degré auquel le groupe aurait pu se coordonner pour obtenir un résultat différent. Ils ont ensuite créé un modèle pour répartir la culpabilité du groupe entre les membres individuels.
« Si vous regardez le groupe de pêcheurs, en tant que groupe, ils sont responsables - évidemment, s'ils ne pêchaient pas tous, il y en aurait beaucoup pour l'année prochaine, " Halpern a déclaré. "La mesure dans laquelle les pêcheurs sont responsables est la mesure dans laquelle ils pourraient se coordonner pour obtenir un résultat différent."
Les chercheurs ont saisi cela en mesurant la capacité des membres du groupe à travailler ensemble pour changer le résultat, en tenant compte du coût de cette opération. Le coût est un facteur critique de la culpabilité :quelqu'un qui renverse un vase coûteux en fuyant un lion est moins blâmable que quelqu'un qui ne fait tout simplement pas attention. Si votre vote fait basculer une élection, vous êtes moins blâmable si quelqu'un menace de vous tuer à moins que vous ne votiez d'une certaine manière.
Dans les travaux futurs, Halpern a dit qu'il espère tester le modèle en demandant aux gens, via le crowdsourcing, attribuer la culpabilité dans divers scénarios, et comparer leurs opinions avec les résultats numériques.
En ce qui concerne les voitures autonomes, les développeurs ou les décideurs pourraient considérer leurs propres définitions du coût lors de la création de leurs algorithmes, dit Halpern. Par exemple, si un gouvernement décide qu'aucun degré de risque n'est acceptable, une voiture serait conçue pour ne jamais dépasser une autre voiture, car cela peut augmenter le risque d'accident.
Bien qu'il puisse être difficile de déterminer comment les algorithmes d'apprentissage automatique prennent des décisions, il peut être possible de développer des algorithmes plus transparents qui permettraient une évaluation plus facile de la culpabilité.
"L'avantage de notre cadre est qu'il vous donne une façon formelle de penser à ces choses et de les modéliser, et cela vous oblige à être explicite sur vos hypothèses et la façon dont vous définissez les coûts, " a déclaré Halpern. "Notre définition essaie d'être quantitative, parce qu'on aime ou qu'on l'aime, il faut faire des compromis, et cette définition vous oblige à y penser. C'est un outil pour aider les gens à réfléchir aux compromis sans leur dire quels devraient être les compromis."