Crédit :CC0 Domaine Public
Des télécommunications au trafic routier, des soins de santé au lieu de travail, la technologie numérique fait désormais partie intégrante de presque tous les domaines de la vie. Mais comment faire en sorte que les évolutions dans ce domaine, en particulier ceux qui s'appuient sur l'intelligence artificielle (IA), répondre à toutes nos éthiques, préoccupations juridiques et technologiques? Dans un projet dirigé par l'Institut Fraunhofer pour l'analyse intelligente et les systèmes d'information IAIS, et avec la participation de l'Office fédéral allemand de la sécurité de l'information (BSI), une équipe interdisciplinaire de scientifiques des universités de Bonn et de Cologne élabore un catalogue d'inspection pour la certification des applications d'IA. Ils ont maintenant publié un livre blanc présentant la philosophie, éthique, questions juridiques et technologiques en cause.
L'intelligence artificielle change notre société, notre économie et notre vie quotidienne de manière fondamentale. Et ce faisant, cela crée des opportunités passionnantes dans la façon dont nous vivons et travaillons ensemble. Par exemple, il aide déjà les médecins à mieux évaluer les radiographies, ce qui conduit souvent à un diagnostic plus précis. C'est la base des chatbots qui apportent des réponses utiles aux personnes à la recherche de conseils sur, par exemple, Assurance. Et, avant trop longtemps, il permettra aux voitures de devenir de plus en plus autonomes. Les prévisions actuelles indiquent que le nombre d'applications d'IA devrait augmenter de façon exponentielle au cours des prochaines années. McKinsey, par exemple, projette une croissance mondiale supplémentaire de l'IA jusqu'à 13 milliards de dollars américains d'ici 2030.
À la fois, il est clair que nous devons nous assurer que notre utilisation de l'IA et les opportunités qu'elle offre restent en harmonie avec les points de vue et les valeurs de notre société. Agissant sous l'égide de Kompetenzplattform KI.NRW, une plateforme de compétences en IA dans l'état de Rhénanie du Nord-Westphalie, une équipe interdisciplinaire s'est réunie pour développer un processus de certification pour les applications d'IA à réaliser par des examinateurs accrédités. Cela confirmera la conformité à une norme de qualité certifiée qui, à son tour, permettra aux entreprises technologiques de concevoir de manière vérifiable des applications d'IA qui sont techniquement fiables et éthiquement acceptables.
"Le but de la certification est d'aider à établir des normes de qualité pour l'IA made in Europe, assurer une approche responsable de cette technologie et favoriser une concurrence loyale entre les différents acteurs, " dit le Prof. Dr. Stefan Wrobel, directeur de Fraunhofer IAIS et professeur d'informatique à l'Université de Bonn.
Se concentrer sur l'aspect humain
L'intelligence artificielle a le potentiel d'élargir nos capacités et de nous fournir de nouvelles connaissances. Cependant, une fois que nous commençons à baser nos décisions sur l'apprentissage automatique entièrement ou partiellement automatisé, nous ferons face à une foule de nouveaux défis. La faisabilité technique de telles applications est une considération. Tout d'abord, cependant, nous devons résoudre la base philosophique, questions éthiques et juridiques. Pour s'assurer que les besoins des personnes sont fermement ancrés au centre du développement de cette technologie, dialogue étroit entre les domaines de l'informatique, la philosophie et le droit sont nécessaires.
L'équipe d'experts vient de publier un livre blanc dans lequel ils détaillent leur approche interdisciplinaire du processus de certification. Par exemple, ils expliquent les principes éthiques impliqués. « Quiconque utilise l'IA devrait pouvoir agir correctement conformément à ses convictions morales, et personne ne devrait être restreint dans ses droits, liberté ou autonomie, " dit le Prof. Dr Markus Gabriel, professeur de philosophie à l'université de Bonn. Des questions juridiques ont également été abordées. "Par exemple, nous devons déterminer comment les applications d'IA peuvent être conformes aux valeurs et principes fondamentaux d'un État régi par la primauté du droit et soumis aux principes de liberté, " explique le Pr Frauke Rostalski, professeur de droit à l'université de Cologne.
Priorités pour instaurer la confiance dans l'utilisation de l'IA
Cette approche interdisciplinaire a permis d'identifier un certain nombre de principes éthiques, les questions juridiques et technologiques pertinentes pour l'utilisation de l'IA. Ceux-ci sont tous examinés dans le livre blanc. Les critères employés dans un processus de certification devraient inclure l'équité, transparence, autonomie, contrôler, protection des données, sécurité, sécurité et fiabilité. Les recommandations de l'UE servent donc également d'orientation pour le projet de certification KI.NRW.
Le processus de certification s'articulera autour de questions telles que :L'application d'IA respecte-t-elle les lois et les valeurs de la société ? L'utilisateur conserve-t-il une autonomie pleine et effective sur l'application ? L'application traite-t-elle tous les participants de manière équitable ? L'application fonctionne-t-elle et prend-elle des décisions de manière transparente et compréhensible ? L'application est-elle fiable et robuste ? Est-il sécurisé contre les attaques, accidents et erreurs? L'application protège-t-elle le domaine privé et d'autres informations sensibles ?
Intégration des vérifications et des contrôles au stade de la conception
Selon le livre blanc, il doit être déterminé au cours du processus de conception initial si l'application est éthiquement et légalement admissible - et si c'est le cas, quels contrôles et vérifications doivent être formulés pour régir ce processus. Un critère nécessaire est de s'assurer que l'utilisation de l'application ne compromet pas la capacité de quiconque l'utilise à prendre une décision morale - comme s'il existait la possibilité de refuser l'utilisation de l'IA - et que ses droits et libertés ne soient en aucune façon restreints. .
La transparence est un autre critère important :les experts soulignent que les informations sur l'utilisation correcte de l'application doivent être facilement disponibles, et les résultats déterminés grâce à l'utilisation de l'IA dans l'application doivent être pleinement interprétables, traçables et reproductibles par l'utilisateur. Intérêts conflictuels, telles que la transparence et la non-divulgation des secrets commerciaux, doivent être équilibrés les uns par rapport aux autres.
Il est prévu de publier une première version du catalogue d'inspection d'ici début 2020, puis de commencer par la certification des applications d'IA. Ce projet implique également la participation de l'Office fédéral allemand de la sécurité de l'information (BSI), qui possède une vaste expérience dans le développement de normes informatiques sécurisées. Ce savoir-faire alimentera le processus de certification. Finalement, étant donné que l'IA est en constante évolution, le catalogue d'inspection lui-même sera un "document vivant" nécessitant une mise à jour continue.