L'éthique des données est désormais une cause célèbre.
« L'éthique numérique et la confidentialité » a fait partie des dix principales tendances technologiques stratégiques de la société de recherche et de conseil Gartner pour 2019. Avant cela, il n'avait à peine fait mention.
Au cours de l'année écoulée, les gouvernements, les entreprises et les groupes de réflexion sur les politiques et les technologies ont publié des guides d'éthique des données. Une cohorte entière d'experts en éthiciens des données s'est matérialisée par magie.
Pourquoi cet intérêt soudain pour l'éthique des données ? Qu'est-ce que l'éthique des données ? Quels intérêts les lignes directrices sont-elles conçues pour servir?
Pour comprendre ce qui se passe, il est nécessaire de prendre du recul et de regarder comment le paysage de l'information s'est déroulé.
L'image qui se dégage est celle d'une industrie à l'abri des contraintes réglementaires qui s'appliquent à tout le monde.
L'éclat est parti
Au cours des dernières années, l'industrie de l'information a perdu de son lustre.
Les révélations de Snowden, le scandale Cambridge Analytica, l'activation des médias sociaux du discours de haine, la militarisation de l'information et son rôle de sape des institutions démocratiques y ont tous contribué.
Le modèle commercial qui monétise les informations personnelles pour vendre de la publicité est désormais considéré comme une aubaine faustienne - peut-être que le sacrifice n'en vaut pas la peine, après tout. De 2017 à 2018, il y a eu une baisse de 6% des utilisateurs de Facebook aux États-Unis sur le marché lucratif des 12-34 ans.
Ces préoccupations ont conduit à des appels à la réglementation. Mais ceux-ci ont eu du mal à gagner du terrain contre l'orthodoxie réglementaire en vigueur pour le secteur de la technologie. Cela remonte aux cinq principes d'Al Gore pour permettre ce que l'on appelait alors étrangement « l'autoroute mondiale de l'information ».
Le troisième principe était que la politique de réglementation « créerait un cadre réglementaire flexible qui puisse suivre le rythme des changements technologiques et du marché rapides ». C'était le code pour aucun règlement, ou l'autorégulation. En Australie, il était connu sous le nom de réglementation « light touch ».
Les grandes technologies ont agi en toute impunité réglementaire, largement libéré des préoccupations mondaines de la "vieille" économie telles que la protection des consommateurs ou la responsabilité du fait des produits ou le droit de la concurrence ou, en particulier, confidentialité des informations.
Tourner plus près
L'Europe n'a jamais complètement adopté cette approche de laisser-faire. La confidentialité des informations a toujours été une priorité de son ordre du jour, aboutissant au Règlement général sur la protection des données (RGPD) de 2018. Cela offre aux individus de l'Union européenne les droits de protection des données les plus complets au monde. Les droits ont une portée extraterritoriale, impliquer une surveillance réglementaire, et d'employer des amendes civiles d'une ampleur époustouflante. D'autres juridictions commencent à emboîter le pas.
En parallèle, les régulateurs d'autres disciplines commencent à tourner en rond. Les régulateurs antitrust se penchent à nouveau sur les monopoles de l'information et l'utilisation par les grandes technologies du pouvoir de marché pour restreindre la concurrence.
En Australie, l'ACCC a demandé une nouvelle autorité de régulation pour surveiller et enquêter sur l'effet des algorithmes sur le classement des informations et du contenu journalistique.
Le rapport du UK Select Committee on Communications sur la réglementation dans un monde numérique a recommandé une nouvelle autorité numérique pour superviser la réglementation « fragmentée » de l'environnement numérique autour de dix principes réglementaires, notant que "[l]'autorégulation par les plateformes en ligne est clairement un échec". Les régulateurs des droits de l'homme examinent le rôle des algorithmes dans la création et l'enracinement de la discrimination.
Les données, c'est de l'argent
La grande technologie ne veut pas être réglementée. Il ne souhaite pas que sa capacité illimitée à collecter des informations personnelles soit restreinte ou que les protections de type RGPD deviennent la norme mondiale. Les informations personnelles sont la matière première des algorithmes qui lui permettent de monétiser notre attention.
Pour une industrie qui se targue d'être « perturbatrice, " Le plus grand souci des big tech est de prévenir le durcissement de l'environnement réglementaire pour ne pas être lui-même perturbé. L'éthique des données est l'un des moyens qu'elle a développé pour lutter contre la réglementation. Elle le fait en s'appropriant les vertus associées à l'éthique mais en les vidant de contenu ou de conséquence .
Prenez les principes de Google pour l'IA. (L'IA est l'intelligence artificielle). Ceux-ci sont:
Ces « principes » sont étonnamment similaires aux homélies de bien-être publiées sur Instagram qui nous exhortent à « être bons les uns envers les autres » ou à « laisser le soleil se coucher sur notre colère, " et sont à peu près aussi utiles.
Mis à l'épreuve
Testons l'un des principes de Google, « être responsable envers les gens ».
Il y a ici plusieurs niveaux d'ambiguïté. Cela signifie-t-il que les algorithmes d'IA de Google doivent rendre des comptes aux « personnes » en général ? Les "gens, " ou le " peuple " de quelqu'un d'autre, comme un régulateur indépendant ?
Si ce dernier, Google fournira-t-il l'algorithme d'analyse, corriger les éventuelles erreurs, et payer une indemnisation pour tout préjudice causé?
Si les algorithmes d'IA de Google concluent à tort que je suis un terroriste et transmettent ensuite ces informations aux agences de sécurité nationale qui les utilisent pour m'arrêter, garde-moi au secret et interroge-moi, Google sera-t-il responsable de sa négligence ou d'avoir contribué à mon faux emprisonnement ? Comment sera-t-il responsable ? Si je ne suis pas satisfait de la version de Google de la responsabilité, à qui demander justice ?
Une éthique utile implique la responsabilité
L'éthique s'intéresse aux principes moraux qui affectent la façon dont les individus prennent des décisions et mènent leur vie.
L'éthique a été étudiée et débattue pendant des éons. Dans les traditions occidentales, l'éthique remonte à Socrate. Ils incluent des positions philosophiques telles que l'éthique déontologique (basée sur le devoir), conséquentialisme, utilitarisme et existentialisme, pour n'en nommer que quelques uns. Sans surprise, aucun de ceux-ci ne produit les mêmes réponses aux questions sur ce qu'un individu doit faire dans des circonstances particulières.
L'« éthique appliquée » vise à faire intervenir les principes de l'éthique dans des situations réelles. Il existe de nombreux exemples.
L'éthique du secteur public est régie par la loi. Il y a des conséquences pour ceux qui les enfreignent, y compris les mesures disciplinaires, licenciement et parfois des sanctions pénales. Pour devenir avocat, J'ai dû fournir la preuve à un tribunal que je suis une « personne apte et appropriée ». Pour continuer à pratiquer, Je suis tenu de me conformer aux exigences détaillées énoncées dans les règles de conduite des avocats australiens. Si je les viole, il y a des conséquences.
Les caractéristiques de l'éthique appliquée sont qu'elles sont spécifiques, il y a des boucles de rétroaction, des conseils sont disponibles, ils sont ancrés dans la culture organisationnelle et professionnelle, il y a une bonne surveillance, il y a des conséquences lorsqu'elles sont violées et il existe des mécanismes d'application indépendants et de véritables recours. Ils font partie d'un appareil réglementaire et pas seulement de déclarations « de bien-être ».
Se sentir bien, les principes d'éthique des données de haut niveau ne sont pas adaptés à la réglementation des grandes technologies. L'éthique appliquée peut avoir un rôle à jouer, mais parce qu'elle est spécifique à une profession ou à une discipline, on ne peut pas s'y fier pour tout faire, ou même la plupart, le levage lourd.
Les dommages liés à la grande technologie ne peuvent être traités que par une réglementation appropriée.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.