Les entreprises de médias sociaux ont adopté des outils d'intelligence artificielle pour nettoyer leurs plateformes de discours haineux, propagande terroriste et autres contenus jugés nocifs. Mais ces outils censureront-ils d'autres contenus ? Un programme peut-il juger de la valeur de la parole ?
Le fondateur de Facebook, Mark Zuckerberg, a déclaré au Congrès la semaine dernière que son entreprise développait rapidement des outils d'IA pour "identifier certaines classes de mauvaises activités de manière proactive et les signaler à notre équipe".
C'est l'une des nombreuses mesures prises par Facebook alors qu'il est aux prises avec une érosion de la confiance des consommateurs lors de sa collecte de données utilisateur, sa vulnérabilité passée à la désinformation politique ciblée et l'opacité des formules sur lesquelles sont construits ses fils d'actualité.
Certains technologues pensent que les outils d'IA ne résoudront pas les problèmes auxquels Facebook et d'autres sociétés de médias sociaux sont confrontés.
« Le problème, c'est que la surveillance est le modèle économique de Facebook :la surveillance pour faciliter la manipulation psychologique, " a déclaré Bruce Schneier, un expert en sécurité bien connu et spécialiste de la confidentialité. "Que ce soit fait par des gens ou (l'intelligence artificielle) est dans le bruit."
Zuckerberg a dit que son Menlo Park, Californie, L'entreprise s'appuie à la fois sur des outils d'IA et sur des milliers d'employés pour réviser le contenu. D'ici la fin de l'année, il a dit, une vingtaine, 000 employés de Facebook "travailleront sur la sécurité et l'examen du contenu".
La société développe ses outils d'IA pour traquer les discours de haine et les fausses nouvelles sur sa plate-forme et considère les outils comme un "moyen évolutif d'identifier et d'éliminer la plupart de ces contenus nuisibles, " il a dit, indiquant à plusieurs reprises sur 10 heures de témoignages sur deux jours que les algorithmes de Facebook peuvent trouver des contenus répréhensibles plus rapidement que les humains.
"Aujourd'hui, alors que nous sommes assis ici, 99% du contenu de l'Etat islamique et d'al-Qaida que nous supprimons sur Facebook, nos systèmes d'IA signalent avant qu'un humain ne le voie, " Zuckerberg a déclaré lors d'une audience au Sénat, se référant aux groupes islamiques extrémistes.
Les systèmes d'intelligence artificielle fonctionnent en collaboration avec une équipe antiterroriste d'humains qui, selon Zuckerberg, compte 200 employés. "Je pense que nous avons une capacité dans 30 langues sur lesquelles nous travaillons, " il a dit.
D'autres outils d'IA existants "font un meilleur travail pour identifier les faux comptes qui peuvent essayer d'interférer dans les élections ou de diffuser de la désinformation, ", a-t-il déclaré. Après que de faux comptes aient publié sur Facebook des informations politiques qui ont perturbé les élections de 2016, Facebook a supprimé de manière proactive "des dizaines de milliers de faux comptes" avant les élections françaises et allemandes de 2017, et l'élection spéciale de l'Alabama pour un siège vacant au Sénat en décembre dernier, il ajouta.
Facebook est loin d'être le seul parmi les sociétés de médias sociaux à exploiter l'intelligence artificielle pour aider les humains à surveiller le contenu.
"Les outils d'IA de concert avec les humains peuvent faire mieux que l'un ou l'autre seul, " dit Wendell Wallach, un enquêteur au Hastings Center, un institut de recherche en bioéthique à Garrison, New York.
Mais Wallach a noté que de nombreux utilisateurs ne comprennent pas l'intelligence artificielle, et Big Tech peut faire face à un contrecoup comme les problèmes alimentaires auxquels sont confrontés les ingrédients génétiquement modifiés (OGM).
« Les principales entreprises d'IA, qui se trouvent être les mêmes que les principales entreprises numériques du moment, comprendre qu'il existe un éléphant de type OGM qui pourrait sortir du placard de l'IA, ", a déclaré Wallach.
Déjà, l'inquiétude monte parmi les conservateurs de Capitol Hill que des plateformes comme Facebook penchent vers la gauche politique, si les outils d'IA ou les humains sont impliqués dans la prise de décisions en matière de contenu.
« Vous reconnaissez ces gens ? le représentant Billy Long, R-Mo., demanda Zuckerberg en brandissant une photo de deux sœurs.
« Est-ce que c'est Diamant et Soie ? » Zuckerberg a demandé, faisant référence à deux personnalités noires des médias sociaux qui sont de fervents partisans du président Donald Trump.
En effet, c'était, Longtemps dit, et Facebook les avait jugés « dangereux ».
« Qu'y a-t-il de dangereux dans le fait que deux femmes noires soutiennent le président Donald J. Trump ?
Zuckerberg a noté plus tard que son équipe Facebook « a fait une erreur d'exécution, et nous avons déjà pris contact avec eux pour inverser la tendance. »
Les outils d'intelligence artificielle excellent à identifier les informations importantes à partir de masses de données, mais ont du mal à comprendre le contexte, surtout en langue parlée, ont dit les experts.
"Exactement la même phrase, selon la relation entre deux individus, pourrait être une expression de haine ou une expression d'affection, " a déclaré David Danks, expert en éthique autour des systèmes autonomes à l'Université Carnegie Mellon. Il a cité l'utilisation du "N-mot, " qui entre certaines personnes peut être un terme amical, mais est également largement considéré comme un discours de haine dans d'autres contextes.
Toute erreur commise par les outils d'IA dans de tels champs de mines linguistiques pourrait être interprétée comme une censure ou un parti pris politique qui pourrait encore diminuer la confiance dans les sociétés de médias sociaux.
"Le public général, Je pense, fait beaucoup moins confiance à ces entreprises, " Dit Danks.
Finalement, il a dit, les algorithmes et les outils d'IA d'une poignée d'entreprises gagneront la confiance du public, même si les consommateurs ne comprennent pas comment ils fonctionnent.
"Je ne comprends pas à bien des égards comment fonctionne ma voiture, mais je lui fais toujours confiance pour fonctionner de toutes les manières dont j'ai besoin, " Dit Danks.
Tout comme les bibliothécaires utilisaient autrefois leur jugement subjectif pour retirer des livres des étagères, les entreprises de médias sociaux peuvent également faire face à des critiques selon lesquelles les outils d'IA peuvent aller trop loin.
"Twitter fait face à ça, " a déclaré James J. Hughes, directeur général de l'Institut d'éthique et des technologies émergentes, En Boston. "Pinterest et Instagram suppriment toujours les sites Web d'artistes qui ont des corps nus quand ils pensent qu'ils sont pornographiques, quand ils ne le sont pas.
"Et ils le font sur la base d'algorithmes d'intelligence artificielle qui indiquent la quantité de chair nue dans l'image."
Dans son témoignage, Zuckerberg a déclaré que les outils d'IA étaient de plus en plus aptes à "identifier les faux comptes qui pourraient tenter d'interférer dans les élections ou de diffuser de la désinformation".
Facebook a admis qu'une agence russe a utilisé Facebook pour diffuser de la désinformation qui a touché jusqu'à 126 millions de personnes au moment du vote présidentiel de 2016, et que les données personnelles de 87 millions de personnes ont pu être détournées par la firme Cambridge Analytica pour cibler les électeurs en faveur de Trump.
Zuckerberg a déclaré aux sénateurs que le retard de Facebook à identifier les efforts russes pour s'ingérer dans les élections est "l'un de mes plus grands regrets dans la gestion de l'entreprise" et s'est engagé à faire mieux pour lutter contre la manipulation pour les élections de cette année.
Alors que les législateurs se demandaient si Facebook et d'autres sociétés de médias sociaux avaient besoin d'une réglementation, Zuckerberg a été confronté à plusieurs reprises à des questions sur la nature de son entreprise. Est-ce aussi une entreprise médiatique parce qu'elle produit du contenu ? Une entreprise de logiciels ? Une entreprise de services financiers qui prend en charge les transferts d'argent?
"Je nous considère comme une entreprise technologique, parce que la principale chose que nous faisons est d'avoir des ingénieurs qui écrivent du code et créent des produits et services pour d'autres personnes, " Zuckerberg a déclaré lors d'une audience à la Chambre.
Les experts disent que cette réponse ne résout pas les problèmes complexes liés aux plates-formes qui ressemblent de plus en plus à des services publics.
"La compagnie d'électricité n'a pas le droit de dire, nous n'aimons pas vos opinions politiques donc nous n'allons pas vous donner l'électricité, '", a déclaré Danks. "Si quelqu'un est exclu de Facebook, est-ce que cela revient à la compagnie d'électricité à couper son électricité? Ou est-ce plutôt la personne qui est vraiment bruyante et odieuse dans un bar, et le propriétaire dit, « Vous devez partir maintenant » ?"
©2018 McClatchy Bureau de Washington
Distribué par Tribune Content Agency, LLC.