Les risques potentiels de l'IA suscitent de plus en plus d'inquiétudes et des critiques croissantes à l'encontre des géants de la technologie. Dans le sillage de ce qu'on a appelé un contrecoup de l'IA ou "techlash", les États et les entreprises prennent conscience du fait que la conception et le développement de l'IA doivent être éthiques, profiter à la société et protéger les droits de l'homme.
Au cours des derniers mois, Google a fait face aux protestations de son propre personnel contre le travail d'IA de l'entreprise avec l'armée américaine. Le département américain de la Défense a confié à Google le développement de l'IA pour l'analyse des images de drones dans le cadre de ce que l'on appelle le « Projet Maven ».
Un porte-parole de Google aurait déclaré:"le contrecoup a été terrible pour l'entreprise" et "il nous incombe de faire preuve de leadership". Elle a évoqué "des plans pour dévoiler de nouveaux principes éthiques". Ces principes ont maintenant été publiés.
le directeur général de Google, Sundar Pichar, a reconnu que "ce domaine est dynamique et évolutif" et a déclaré que Google serait disposé "à adapter notre approche au fur et à mesure que nous apprenons au fil du temps". Ceci est important car, tandis que les principes sont un début, davantage de travail et des engagements plus concrets sont nécessaires si Google veut devenir efficace dans la protection des droits de l'homme.
Les principes de Google sur l'IA
Google s'engage également à ne pas poursuivre :
Mais il y a peu de détails sur la façon dont il le fera réellement.
Les applications d'IA peuvent causer un large éventail de dommages
Les principes de Google reconnaissent le risque de partialité de l'IA et sa menace pour la vie privée. Ceci est important à la lumière des résultats selon lesquels les algorithmes de recherche Google peuvent reproduire les stéréotypes raciaux et de genre. Mais les principes ne reconnaissent pas les risques plus larges pour tous les droits de l'homme et la nécessité de les protéger. Par exemple, les algorithmes biaisés entraînent non seulement une discrimination, mais peuvent également affecter l'accès aux opportunités d'emploi.
Outre le moteur de recherche, Les autres entreprises de Google pourraient également soulever des problèmes de droits de l'homme. Google a créé la société Jigsaw, qui utilise l'IA pour organiser du contenu en ligne dans le but de lutter contre le langage abusif, des menaces, et le harcèlement en ligne. Mais la modération du contenu peut également constituer une menace pour le droit à la liberté d'expression.
Google Brain utilise l'apprentissage automatique pour prédire les résultats pour la santé à partir des dossiers médicaux, et Google Cloud collaborera avec Fitbit. Ces deux exemples soulèvent des problèmes de confidentialité et de protection des données. Nos collègues se sont également demandé si des partenariats tels que Google DeepMind et le NHS profitaient ou compromettaient les obligations des États de mettre en place un système de santé qui « offre l'égalité des chances aux personnes de bénéficier du niveau de santé le plus élevé possible ».
Que doit faire Google ?
L'approche globale de Google devrait être basée sur la recherche de moyens pour que l'IA soit bénéfique pour la société sans violer les droits de l'homme. Expliquant son premier principe d'être « socialement bénéfique, " Google dit qu'il ne procéderait que là où nous pensons que les avantages globaux probables dépassent considérablement les risques et les inconvénients prévisibles. " Mais une approche qui équilibre les risques par rapport aux avantages n'est pas compatible avec les droits de l'homme. Un État ou une entreprise, comme Google, ne peut pas développer une IA qui promet de profiter à certaines personnes au détriment des droits humains de quelques-uns ou d'une communauté particulière. Plutôt, il doit trouver un moyen de s'assurer que l'IA ne porte pas atteinte aux droits humains.
Donc, Google doit tenir pleinement compte des effets de l'IA sur les droits humains tout au long de son développement et de son déploiement. Surtout ainsi, car des risques peuvent survenir même si la technologie n'est pas conçue à des fins nuisibles. Les règles et normes internationales des droits de l'homme - y compris les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l'homme - couvrent à la fois le but et l'effet des actions des entreprises, y compris Google, sur les droits de l'homme. Ces responsabilités existantes doivent être reflétées beaucoup plus clairement dans les principes de Google, en particulier sur les mesures positives que Google prendra pour protéger les atteintes aux droits de l'homme, même si involontaire.
Être responsable de la façon dont il développe et déploie l'IA, Google doit aller au-delà du langage provisoire actuel visant à encourager les architectures de confidentialité et à assurer « une direction et un contrôle humains appropriés » sans expliquer qui décide de ce qui est approprié et sur quelle base. Il doit intégrer les droits de l'homme dans la conception de l'IA et incorporer des garanties telles que des évaluations d'impact sur les droits de l'homme et des processus de contrôle et d'examen indépendants dans les principes.
Les principes devraient également détailler comment les atteintes aux droits humains seront réparées et comment les individus et les groupes affectés peuvent porter plainte, qui est actuellement absent.
La voie à suivre?
Lancer les principes, Le PDG de Google, Sundar Pichar, a reconnu que la manière dont l'IA est développée et utilisée aura "un impact significatif sur la société pendant de nombreuses années à venir". Le rôle de pionnier de Google dans l'IA signifie que l'entreprise, selon Sundar, « sent[s] une profonde responsabilité de faire les choses correctement. »
Bien que les principes soient un début important, ils ont besoin de beaucoup plus de développement si nous voulons être assurés que nos droits humains seront protégés. La prochaine étape consiste pour Google à intégrer les droits de l'homme, sauvegardes et processus de responsabilité tout au long de leur développement de l'IA. C'est ce qu'il faut pour « bien faire les choses ».
Cet article a été initialement publié sur The Conversation. Lire l'article original.