Crédit :Pixabay/CC0 domaine public
Le public n'a pas besoin de savoir comment fonctionne l'intelligence artificielle pour lui faire confiance. Ils ont juste besoin de savoir qu'une personne possédant les compétences nécessaires examine l'IA et a le pouvoir d'infliger des sanctions si elle cause ou est susceptible de causer un préjudice.
Dr Bran Knowles, maître de conférences en science des données à l'Université de Lancaster, dit :« Je suis certain que le public est incapable de déterminer la fiabilité des IA individuelles… mais nous n'avons pas besoin d'eux pour le faire. Ce n'est pas leur responsabilité de garder l'IA honnête.
Aujourd'hui (8 mars), le Dr Knowles présente un document de recherche « La sanction de l'autorité :promouvoir la confiance du public dans l'IA » à la conférence de l'ACM sur l'équité, Responsabilité et transparence (ACM FAccT).
L'article est co-écrit par John T. Richards, de T.J. d'IBM Centre de recherche Watson, Yorktown Heights, New York.
Le grand public est, les notes de papier, souvent méfiant envers l'IA, qui découle à la fois de la façon dont l'IA a été décrite au fil des ans et d'une prise de conscience croissante qu'il y a peu de surveillance significative à son sujet.
Les auteurs soutiennent qu'une plus grande transparence et des explications plus accessibles sur le fonctionnement des systèmes d'IA, perçu comme un moyen d'accroître la confiance, ne répondent pas aux préoccupations du public.
Un « écosystème de régulation, " ils disent, est la seule façon pour l'IA de rendre des comptes au public de manière significative, gagner leur confiance.
« Le public ne se préoccupe pas systématiquement de la fiabilité de la nourriture, aviation, et pharmaceutiques parce qu'ils croient qu'il existe un système qui réglemente ces choses et punit toute violation des protocoles de sécurité, " dit le Dr Richards.
Et, ajoute le Dr Knowles :« Plutôt que de demander au public d'acquérir des compétences pour prendre des décisions éclairées sur les IA dignes de sa confiance, le public a besoin des mêmes garanties que toute IA qu'il pourrait rencontrer ne lui fera pas de mal."
Elle souligne le rôle essentiel de la documentation de l'IA dans la mise en place de cet écosystème réglementaire digne de confiance. Par exemple, le document traite des travaux d'IBM sur les fiches d'information sur l'IA, une documentation conçue pour capturer les faits clés concernant le développement et les tests d'une IA.
Mais, bien que cette documentation puisse fournir les informations nécessaires aux auditeurs internes et aux régulateurs externes pour évaluer la conformité aux cadres émergents pour une IA digne de confiance, Le Dr Knowles met en garde contre le fait de s'en servir pour favoriser directement la confiance du public.
« Si nous ne reconnaissons pas que le fardeau de superviser la fiabilité de l'IA doit incomber à des régulateurs hautement qualifiés, alors il y a de fortes chances que l'avenir de la documentation de l'IA soit encore un autre mécanisme de consentement de type termes et conditions - quelque chose que personne ne lit ou ne comprend vraiment, " elle dit.
Le document demande que la documentation de l'IA soit correctement comprise comme un moyen de donner aux spécialistes les moyens d'évaluer la fiabilité.
« L'IA a des conséquences matérielles dans notre monde qui affectent de vraies personnes ; et nous avons besoin d'une véritable responsabilité pour nous assurer que l'IA qui imprègne notre monde contribue à rendre ce monde meilleur, " dit le Dr Knowles.