En ce 5 janvier, 2019, photo d'archive des personnes se tiennent devant la tente Google pendant les préparatifs du CES International à Las Vegas. Les employés de Google ont eu plus de succès que les autres techniciens en exigeant des changements au sein de l'entreprise. Google a abandonné un contrat avec le Pentagone après que les employés ont repoussé les implications éthiques de l'utilisation de la technologie de l'entreprise pour analyser les vidéos de drones. (AP Photo/John Locher, Déposer)
Les plus grandes entreprises technologiques veulent que vous sachiez qu'elles prennent un soin particulier à s'assurer que leur utilisation de l'intelligence artificielle pour passer au crible des montagnes de données, analyser des visages ou créer des assistants virtuels ne déborde pas du côté obscur.
Mais leurs efforts pour apaiser les craintes que leurs machines puissent être utilisées à des fins néfastes n'ont pas été universellement adoptés. Certains sceptiques y voient une simple façade d'entreprises plus intéressées par le profit que par ce qui est dans l'intérêt de la société.
« L'IA éthique » est devenue une nouvelle expression à la mode en entreprise, giflé sur des comités d'examen internes, titres de poste de fantaisie, projets de recherche et initiatives philanthropiques. Ces mesures visent à répondre aux préoccupations concernant les préjugés raciaux et sexistes émergents dans la reconnaissance faciale et d'autres systèmes d'IA, ainsi que répondre aux inquiétudes concernant les pertes d'emplois liées à la technologie et à son utilisation par les forces de l'ordre et l'armée.
Mais quelle substance se cache derrière les campagnes éthiques de plus en plus publiques ? Et qui décide quelles activités technologiques ne nuisent pas ?
Google a été confronté aux deux questions lorsqu'il a formé un nouveau conseil d'administration de conseillers externes fin mars pour aider à guider la façon dont il utilise l'IA dans les produits. Mais au lieu de gagner des critiques potentielles, il a suscité la rancœur interne. Un peu plus d'une semaine plus tard, Google a cédé à la pression du contrecoup et a dissous le conseil.
Le panneau extérieur s'est effondré par étapes. L'un des huit membres inauguraux du conseil d'administration a démissionné en quelques jours et un autre est rapidement devenu la cible des protestations des employés de Google qui ont déclaré que ses opinions conservatrices ne correspondaient pas aux valeurs professées par l'entreprise.
Alors que des milliers d'employés demandaient la destitution de la présidente de la Heritage Foundation, Kay Coles James, Google a dissous le conseil d'administration la semaine dernière.
"Il est devenu clair que dans l'environnement actuel, (le conseil) ne peut pas fonctionner comme nous le voulions, ", a déclaré la société dans un communiqué.
Cet environnement est de plus en plus préoccupant car les campagnes éthiques d'entreprise en matière d'IA manquent de mordant.
"Je pense que (la décision de Google) reflète une compréhension plus large du public selon laquelle l'éthique implique plus que la simple création d'un comité d'éthique sans cadre institutionnel pour assurer la responsabilité, ", a déclaré Ben Wagner, chercheur en IA.
L'initiative originale de Google s'inscrit dans une tendance de l'industrie technologique que Wagner appelle « l'éthique du lavage, " qu'il décrit comme un effort superficiel qui est surtout un spectacle pour le public ou les législateurs.
"C'est essentiellement une tentative de prétendre que vous faites des choses éthiques et que vous utilisez l'éthique comme un outil pour atteindre une fin, comme éviter la réglementation, " dit Wagner, professeur assistant à l'Université d'économie et de commerce de Vienne. "C'est une nouvelle forme d'autorégulation sans l'appeler ainsi par son nom."
Ces dernières années, les grandes entreprises ont fait un effort de plus en plus visible pour discuter de leurs efforts en matière d'IA.
Microsoft, qui essaie souvent de se positionner comme un leader de l'industrie sur les questions d'éthique et de confidentialité, publié ses principes autour du développement de l'IA, a publié un court livre qui a discuté des implications sociétales de la technologie et a appelé à une certaine réglementation gouvernementale des technologies d'IA.
Le président de la société a même rencontré le pape François plus tôt cette année pour discuter de l'éthique de l'industrie. Amazon a récemment annoncé qu'il aidait à financer la recherche fédérale sur « l'équité algorithmique, " et Salesforce emploie un " architecte " pour une pratique éthique de l'IA, ainsi qu'un responsable du « chef de l'utilisation éthique et humaine ». Il est difficile de trouver une entreprise technologique de marque sans initiatives similaires.
En ce 21 mai, 2018, photo d'archives Secrétaire d'État Mike Pompeo, la gauche, rejoint par la présidente de la Heritage Foundation Kay Coles James, intervient à la Fondation du Patrimoine, un groupe de réflexion conservateur sur les politiques publiques, à Washington. Les employés de Google ont eu plus de succès que les autres techniciens en exigeant des changements au sein de l'entreprise. Google a abandonné un contrat avec le Pentagone après que les employés ont repoussé les implications éthiques de l'utilisation de la technologie de l'entreprise pour analyser les vidéos de drones. Et après plus de 2, 400 employés de Google ont signé une pétition demandant le retrait de James du conseil d'administration, Google a complètement supprimé le tableau. (AP Photo/J. Scott Applewhite, Déposer)
C'est une bonne chose que les entreprises étudient la question et cherchent des perspectives sur l'éthique de l'industrie, dit Oren Etzioni, PDG de l'Institut Allen pour l'intelligence artificielle, un organisme de recherche. Mais finalement, il a dit, le PDG d'une entreprise est chargé de décider des suggestions sur l'éthique de l'IA à intégrer dans les décisions commerciales.
"Je pense que dans l'ensemble c'est une étape positive plutôt qu'une feuille de vigne, " dit-il. " Cela dit, la preuve en est une mise en œuvre réussie. Je pense que le jury n'est toujours pas là-dessus."
L'impact que l'intelligence artificielle peut avoir sur la société n'a jamais été aussi clair, Etzioni a dit, et les entreprises réagissent aux études sur la puissance des algorithmes de recommandation et les préjugés sexistes dans l'IA.
Mais comme le montre la tentative de Google, discuter des problèmes aux yeux du public invite également le public à l'examiner.
Les employés de Google ont eu plus de succès que les autres techniciens en exigeant des changements dans leur entreprise. Le géant de la recherche sur Internet a abandonné un contrat avec le Pentagone après que les employés ont repoussé les implications éthiques de l'utilisation de la technologie d'IA de l'entreprise pour analyser les vidéos de drones.
Et après plus de 2, 400 employés de Google ont signé une pétition demandant le retrait de James du conseil d'administration, Google a complètement supprimé le tableau. Les employés ont déclaré que James avait fait des commentaires antérieurs qui étaient anti-trans et anti-immigrants et ne devraient pas faire partie d'un comité d'éthique. La Fondation du patrimoine n'a pas répondu à une demande de commentaire.
Google avait également fait face à la dissidence de ses membres choisis du conseil. Alessandro Acquisti, professeur à l'Université Carnegie Mellon, annonçant sur Twitter qu'il déclinait l'invitation. Il a écrit qu'il se consacre à la lutte contre l'équité et l'inclusion dans l'IA, mais ce n'était pas "le bon forum pour moi de m'engager dans ce travail important". Il a refusé de commenter davantage.
Une experte qui s'était engagée à rester au conseil est Joanna Bryson, professeur agrégé en informatique à l'Université de Bath. Un libéral autoproclamé, elle a dit avant la dissolution qu'il était logique d'avoir de la diversité politique dans le panel, et elle n'était pas d'accord avec ceux qui pensent que c'est juste pour le spectacle.
"Je ne pense pas que Google soit si stupide, " Bryson a déclaré. "Je ne pense pas qu'ils sont là juste pour avoir une affiche sur un mur."
Elle a dit, cependant, que des entreprises comme Google et Microsoft ont un réel souci de responsabilité, c'est-à-dire qu'elles veulent s'assurer qu'elles se montrent, et le public, qu'ils ont fait de leur mieux pour créer des produits de la bonne manière avant de les lancer.
"Ce n'est pas seulement la bonne chose à faire, c'est la chose qu'ils doivent faire, ", a-t-elle déclaré. Bryson a déclaré qu'elle espérait que Google souhaitait réellement réfléchir à des problèmes difficiles et devrait trouver un autre moyen de le faire après la dissolution du conseil.
On ne sait pas ce que Google fera ensuite. La société a déclaré qu'elle « retournait à la planche à dessin » et qu'elle trouverait d'autres moyens d'obtenir des opinions extérieures.
Wagner a déclaré que le moment serait venu pour Google de mettre en place des principes d'éthique qui incluent des engagements auxquels ils doivent s'en tenir, surveillance externe et autres points de contrôle pour les tenir responsables.
Même si les entreprises continuent de mettre en place des conseils externes pour superviser la responsabilité de l'IA, une réglementation gouvernementale sera toujours nécessaire, dit Liz O'Sullivan, un technicien qui a quitté la société d'intelligence artificielle Clarifai à cause du travail de l'entreprise dans le projet Maven du Pentagone, le même projet que Google a abandonné après la protestation de ses employés.
O'Sullivan se méfie des conseils d'administration qui peuvent faire des suggestions auxquelles les entreprises n'ont aucune obligation légale de s'en tenir.
"Chaque entreprise de cette taille qui déclare qu'elle souhaite avoir une sorte de surveillance qui n'a pas la capacité ou l'autorité de restreindre ou de restreindre le comportement de l'entreprise semble le faire pour la presse, " elle a dit.
© 2019 La Presse Associée. Tous les droits sont réservés.