En ce 29 novembre, 2019, fichier photo, une tête métallique composée de pièces motrices symbolise l'intelligence artificielle, ou IA, au Essen Motor Show pour le tuning et les sports mécaniques à Essen, Allemagne. L'administration Trump propose de nouvelles règles guidant la façon dont le gouvernement américain réglemente l'utilisation de l'intelligence artificielle en médecine, transports et autres industries. La Maison Blanche a dévoilé les propositions mardi, 7 janvier et a déclaré qu'ils étaient destinés à promouvoir des applications d'IA sûres et équitables dans le secteur privé. (AP Photo/Martin Meissner, Déposer)
L'administration Trump propose de nouvelles règles pour guider la future réglementation fédérale de l'intelligence artificielle utilisée en médecine, transports et autres industries.
Mais il est peu probable que le flou des principes annoncés par la Maison Blanche satisfasse les chiens de garde de l'IA qui ont mis en garde contre un manque de responsabilité alors que des systèmes informatiques sont déployés pour assumer des rôles humains dans des contextes sociaux à haut risque, comme les prêts hypothécaires ou le recrutement.
La Maison Blanche a déclaré qu'en décidant des mesures réglementaires, Les agences américaines « doivent tenir compte de l'équité, non-discrimination, ouverture d'esprit, transparence, sécurité, et la sécurité." Mais les agences fédérales doivent également éviter de mettre en place des restrictions qui "entravent inutilement l'innovation et la croissance de l'IA, " lit un mémo envoyé aux chefs d'agence des États-Unis par Russell Vought, directeur par intérim du Bureau de la gestion et du budget.
"Les agences doivent éviter une approche de précaution qui maintient les systèmes d'IA à un niveau incroyablement élevé que la société ne peut pas profiter de leurs avantages, " dit la note.
Les règles n'affecteront pas la façon dont les agences fédérales telles que les forces de l'ordre utilisent la reconnaissance faciale et d'autres formes d'IA. Ils se limitent spécifiquement à la façon dont les agences fédérales élaborent de nouvelles réglementations en matière d'IA pour le secteur privé. Il y a une période de commentaires du public de 60 jours avant que les règles n'entrent en vigueur.
« Ces principes sont volontairement de haut niveau, " a déclaré Lynne Parker, Directeur adjoint de la technologie des États-Unis au Bureau de la politique scientifique et technologique de la Maison Blanche. "Nous avons volontairement voulu éviter le top-down, taille unique, règlements généraux."
La Maison Blanche a déclaré que les propositions dévoilées mardi visent à promouvoir des applications d'IA sûres et équitables dans le secteur privé, tout en repoussant les réglementations plus strictes favorisées par certains législateurs et militants.
Les agences fédérales telles que la Food and Drug Administration et la Federal Aviation Administration seront tenues de suivre les nouveaux principes de l'IA. Cela fait des règles « les premières du genre de n'importe quel gouvernement, " Michael Kratsios, le directeur de la technologie des États-Unis, a déclaré lundi lors d'un appel avec des journalistes.
Les progrès rapides de la technologie de l'IA ont suscité de nouvelles inquiétudes alors que les ordinateurs assument de plus en plus des tâches telles que le diagnostic de conditions médicales, conduire des voitures, recommander des investissements en actions, évaluer le risque de crédit et reconnaître les visages individuels dans les séquences vidéo. Il n'est souvent pas clair comment les systèmes d'IA prennent leurs décisions, menant à des questions de savoir jusqu'où leur faire confiance et quand tenir les humains au courant.
Terah Lyons de l'association à but non lucratif Partnership on AI, qui prône une IA responsable et bénéficie du soutien de grandes entreprises technologiques et philanthropiques, a déclaré que les principes de la Maison Blanche n'auront probablement pas d'effets rapides ou immédiats. Mais elle a dit qu'elle était encouragée par le fait qu'ils détaillaient une approche américaine centrée sur des valeurs telles que la fiabilité et l'équité.
"La communauté des développeurs d'IA peut voir cela comme un pas positif dans la bonne direction, " dit Lyon, qui travaillait auparavant pour le bureau des sciences et technologies de la Maison Blanche sous l'administration Obama. "C'est un peu difficile de voir quel sera l'impact réel."
Qu'est-ce qui manque, elle a ajouté, sont des mécanismes clairs pour tenir les systèmes d'IA responsables.
Un autre chien de garde technologique, AI Now Institute de l'Université de New York, a déclaré qu'il se félicitait de nouvelles limites sur les applications de l'IA, mais qu'il " faudra du temps pour évaluer l'efficacité de ces principes dans la pratique ".
Kratsios a déclaré qu'il espère que les nouveaux principes pourront servir de modèle pour d'autres institutions démocratiques telles que la Commission européenne, qui a proposé ses propres lignes directrices éthiques en matière d'IA, pour préserver les valeurs partagées sans entraver l'industrie technologique.
Cette, il a dit, est "le meilleur moyen de contrer les utilisations autoritaires de l'IA" par les gouvernements qui visent à "suivre, surveiller et emprisonner leur propre peuple. » L'administration Trump a cherché à pénaliser la Chine au cours de la dernière année pour les utilisations de l'IA que les États-Unis considèrent comme abusives.
L'année dernière, le département américain du Commerce a mis sur liste noire plusieurs sociétés chinoises d'IA après que l'administration Trump a déclaré qu'elles étaient impliquées dans la répression des musulmans dans la région du Xinjiang. Le lundi, citant des problèmes de sécurité nationale, l'agence a fixé des limites à l'exportation des logiciels d'IA utilisés pour analyser les images satellite.
© 2020 La Presse Associée. Tous les droits sont réservés.