Google a confirmé avoir dissous son panel d'éthique sur l'intelligence artificielle
Google a confirmé jeudi avoir dissous un comité consultatif sur l'éthique de l'intelligence artificielle récemment constitué face à la controverse sur sa composition.
La fin du Conseil consultatif externe sur les technologies avancées (ATEAC) est intervenue quelques jours seulement après qu'un groupe d'employés de Google a lancé une campagne publique contre le fait d'avoir le président du groupe de réflexion conservateur Heritage Foundation parmi ses membres.
Un autre membre du conseil avait déjà démissionné, et l'inclusion d'un dirigeant d'une entreprise de drones avait ravivé les inquiétudes concernant les utilisations militaires potentielles de l'intelligence artificielle, selon le site d'actualités Vox, qui a d'abord signalé la dissolution du conseil.
"Il est devenu clair que dans l'environnement actuel, L'ATEAC ne peut pas fonctionner comme nous le voulions, " Google a déclaré à l'AFP.
« Donc, nous mettons fin au conseil et retournons à la planche à dessin. »
Google a ajouté qu'il chercherait d'autres moyens de recueillir des commentaires extérieurs concernant l'utilisation responsable de l'intelligence artificielle.
Garder l'IA impartiale
Une pétition publiée en ligne a demandé à Google de retirer Kay Coles James de la Heritage Foundation du conseil formé il y a une semaine, en raison de son histoire d'être "vocalement anti-trans, anti-LGBTQ et anti-immigrés."
"En choisissant James, Google précise que sa version de « l'éthique » valorise la proximité du pouvoir sur le bien-être des personnes trans, autres personnes LGBTQ et immigrants, " lire une déclaration publiée sur Medium par un groupe s'identifiant comme Googlers Against Transphobia.
Les positions exprimées par James contredisent les valeurs déclarées de Google et, si infusé dans l'intelligence artificielle, pourrait intégrer la discrimination dans les machines super-intelligentes, selon le poste.
Le groupe a déclaré que le raisonnement pour l'ajout de James au panel a été donné dans le but d'avoir une diversité de pensée.
Depuis jeudi soir, la pétition en ligne en a montré plus de 2, 300 signatures d'universitaires, Employés de Google et autres, y compris les pairs de l'industrie de la technologie.
La controverse survient alors que le monde est aux prises avec un équilibre entre les avantages potentiels de l'intelligence artificielle et les risques qu'elle pourrait être utilisée contre des personnes ou même, si on lui donne un esprit propre, s'en prendre à ses créateurs.
Le chef de Google, Sundar Pichai, a déclaré dans une interview publiée à la fin de l'année dernière que les entreprises technologiques qui construisent l'IA devraient prendre en compte l'éthique dès le début du processus pour s'assurer que l'intelligence artificielle avec « sa propre agence » ne nuit pas aux gens.
Le géant de l'Internet basé en Californie est un leader dans le développement de l'IA, en compétition dans la course aux logiciels intelligents avec des entreprises telles qu'Amazon, Pomme, Facebook, IBM et Microsoft.
L'année dernière, Google a publié un ensemble de principes internes d'IA, le premier étant que l'IA devrait être socialement bénéfique.
Google s'est engagé à ne pas concevoir ou déployer d'IA pour une utilisation dans des armes, surveillance en dehors des normes internationales ou dans des technologies visant à violer les droits de l'homme.
La société a indiqué qu'elle continuerait à travailler avec l'armée ou les gouvernements dans des domaines tels que la cybersécurité, entraînement, recrutement, les soins de santé et la recherche et le sauvetage.
L'IA est déjà utilisée pour reconnaître les personnes sur les photos, filtrer le contenu indésirable des plateformes en ligne et permettre aux voitures de se conduire elles-mêmes.
© 2019 AFP