Le chef de Google, Sundar Pichai, affirme que les craintes concernant l'intelligence artificielle sont valables mais que l'industrie technologique est à la hauteur du défi de s'autoréguler
Un groupe d'employés de Google a lancé lundi une campagne publique pour retirer le président du groupe de réflexion conservateur Heritage Foundation d'un comité consultatif externe sur l'éthique en matière d'intelligence artificielle.
Une pétition publiée en ligne appelait le géant de l'Internet à retirer Kay Coles James de son Conseil consultatif externe sur les technologies avancées récemment formé en raison de ses antécédents d'"anti-trans", anti-LGBTQ et anti-immigrés."
"En choisissant James, Google précise que sa version de « l'éthique » valorise la proximité du pouvoir sur le bien-être des personnes trans, autres personnes LGBTQ et immigrants, " lire une déclaration publiée sur Medium par un groupe s'identifiant comme Googlers Against Transfobia.
Les positions exprimées par James contredisent les valeurs déclarées de Google et, si infusé dans l'intelligence artificielle, pourrait intégrer la discrimination dans les machines super-intelligentes, selon le poste.
"De l'IA qui ne reconnaît pas les personnes trans, n'entend pas plus de voix féminines et ne voit pas les femmes de couleur, à l'IA utilisée pour renforcer la surveillance policière, profiler les immigrés et automatiser les armes —ceux qui sont les plus marginalisés sont les plus à risque, " a soutenu le groupe.
Le groupe a déclaré que le raisonnement pour l'ajout de James au panel a été donné dans le but d'avoir une diversité de pensée.
Ni Google ni la Heritage Foundation n'ont immédiatement répondu aux demandes de commentaires.
Les partisans de la pétition ont déclaré qu'elle avait été lancée avec 580 signatures d'universitaires, Employés de Google et autres, y compris les pairs de l'industrie de la technologie.
La controverse survient alors que le monde est aux prises avec un équilibre entre les avantages potentiels de l'intelligence artificielle et les risques qu'elle pourrait être utilisée contre des personnes ou même, si on lui donne un esprit propre, s'en prendre à ses créateurs.
Le chef de Google, Sundar Pichai, a déclaré dans une interview publiée à la fin de l'année dernière que les craintes concernant l'intelligence artificielle sont valables, mais que l'industrie technologique est prête à relever le défi de s'autoréguler.
Les entreprises technologiques qui construisent l'IA devraient prendre en compte l'éthique dès le début du processus pour s'assurer que l'intelligence artificielle avec « sa propre agence » ne fait pas de mal aux gens, Pichai a déclaré dans une interview au Washington Post.
Le géant de l'Internet basé en Californie est un leader dans le développement de l'IA, en compétition dans la course aux logiciels intelligents avec des géants comme Amazon, Pomme, Facebook, IBM et Microsoft.
L'année dernière, Google a publié un ensemble de principes internes d'IA, le premier étant que l'IA devrait être socialement bénéfique.
Google s'est engagé à ne pas concevoir ou déployer d'IA pour une utilisation dans des armes, surveillance en dehors des normes internationales ou dans des technologies visant à violer les droits de l'homme.
La société a indiqué qu'elle continuerait à travailler avec l'armée ou les gouvernements dans des domaines tels que la cybersécurité, entraînement, recrutement, les soins de santé et la recherche et le sauvetage.
L'IA est déjà utilisée pour reconnaître les personnes sur les photos, filtrer le contenu indésirable des plateformes en ligne et permettre aux voitures de se conduire elles-mêmes.
© 2019 AFP