• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Big Tech survente l'IA comme solution à l'extrémisme en ligne

    Crédit :CC0 Domaine Public

    À la mi-septembre, l'Union européenne a menacé d'imposer une amende aux grandes entreprises technologiques si elles ne supprimaient pas le contenu terroriste dans l'heure suivant leur apparition en ligne. Le changement est survenu parce que des tensions croissantes se développent maintenant et se diffusent sur les plateformes de médias sociaux.

    Les conflits sociaux qui se sont accumulés autrefois dans les réunions en coulisses et ont atteint leur paroxysme dans les rues de la ville, prennent maintenant de l'ampleur sur les plateformes de médias sociaux avant de se répandre dans la vie réelle. Autrefois, les gouvernements avaient tendance à contrôler les médias traditionnels, avec peu ou pas de possibilité pour les individus de diffuser la haine.

    La révolution numérique a tout changé.

    Les organisations terroristes, plus particulièrement des militants de l'État islamique (ISIS), ont utilisé des plateformes de médias sociaux telles que Facebook, Instagram et Twitter pour leurs campagnes de propagande, et de planifier des attaques terroristes contre des civils.

    groupes d'extrême droite, y compris les extrémistes anti-réfugiés en Allemagne, exploitent également de plus en plus les plateformes technologiques pour épouser des opinions anti-immigrés et diaboliser les minorités.

    Du Sri Lanka au Myanmar, les tensions communautaires – attisées en ligne – ont conduit à la violence.

    En raison de la volonté politique croissante au sein des pays occidentaux de réglementer les sociétés de médias sociaux, de nombreux titans de la technologie soutiennent qu'ils peuvent s'autoréguler et que l'intelligence artificielle (IA) est l'un des outils clés pour réduire la haine en ligne. Il y a plusieurs années, nous avons créé le Digital Mass Atrocity Prevention Lab pour travailler à l'amélioration des politiques publiques afin de freiner l'exploitation des plateformes technologiques par des extrémistes violents.

    Capacités survendues ?

    Les entreprises technologiques sont douloureusement conscientes de l'utilisation malveillante de leurs plateformes.

    En juin 2017, Facebook, Microsoft, Twitter et YouTube ont annoncé la formation du Global Internet Forum to Counter Terrorism, qui vise à perturber les activités extrémistes en ligne. Pourtant, alors que la pression politique pour supprimer le contenu en ligne préjudiciable augmente, ces entreprises commencent à réaliser les limites de leurs modérateurs de contenu humain.

    Au lieu, ils développent et déploient de plus en plus des technologies d'IA pour automatiser le processus de détection et de suppression de contenu indésirable. Mais ils le font sans surveillance et sans informations publiques sur le fonctionnement de ces systèmes d'IA, un problème identifié dans un récent rapport du Forum des politiques publiques.

    Twitter, selon son dernier rapport de transparence, affirme avoir utilisé l'IA pour en éliminer plus de 300, 000 comptes liés au terrorisme au premier semestre 2017.

    Facebook lui-même reconnaît qu'il a du mal à utiliser l'IA de manière efficace sur les questions entourant le discours de haine. Le PDG Mark Zuckerberg a déclaré aux membres du Congrès américain plus tôt cette année que l'IA a toujours du mal à s'attaquer aux nuances des dialectes linguistiques, contexte et si une déclaration est qualifiée ou non de discours de haine – et que cela pourrait prendre des années à résoudre.

    Cependant, la société prétend également être en mesure de supprimer 99% du contenu affilié à l'Etat islamique et à al-Qaida à l'aide d'algorithmes basés sur l'IA et de modérateurs de contenu humains. Que l'IA ou les humains soient la clé du succès de l'entreprise n'a pas encore fait l'objet d'une enquête indépendante.

    L'échec de l'IA

    En 2017, 250 entreprises ont suspendu leurs contrats publicitaires avec Google en raison de son incapacité présumée à modérer le contenu extrémiste de YouTube. Un an plus tard, Vice-président senior de la publicité et du commerce de Google, Sridhar Ramaswamy, affirme que la société fait de gros progrès dans la sécurité des plates-formes pour regagner la confiance perdue de ses clients.

    Cependant, une étude récente de l'ONG Counter Extremism Project réfute l'efficacité des efforts de l'entreprise pour limiter et supprimer les vidéos extrémistes. Plus de transparence et de responsabilité de YouTube est nécessaire, étant donné que l'étude a révélé que plus de 90 % des vidéos d'ISIS ont été téléchargées plus d'une fois, sans aucune mesure prise contre les comptes qui ont violé les conditions de service de l'entreprise.

    Il est clair qu'il n'y a pas de voie simple vers l'avant. Supprimer le contenu qui n'est pas nuisible, offensive, extrémiste ou illégal, même si c'est désagréable, est un obstacle à la liberté d'expression. Dans certains cas, l'utilisation de l'IA pour supprimer du contenu a bloqué du matériel légitime publié par des défenseurs des droits humains.

    Par exemple, en 2017, Shah Hossain, un militant des droits humains a découvert qu'un nombre important de ses publications sur Facebook concernant la persécution de la minorité Rohingya au Myanmar avaient été supprimées. YouTube a également effacé sa chaîne d'information, qui en comptait près de 80, 000 abonnés. Hossain documentait les violations des droits humains, ne pas épouser la haine.

    En Syrie, où le journalisme indépendant est sévèrement restreint par la guerre, les vidéos et les photos publiées en ligne par les militants sont cruciales pour comprendre la situation dans le pays. Dans une tentative de répression du contenu extrémiste, cependant, Les algorithmes basés sur l'IA de YouTube ont supprimé des milliers de vidéos d'atrocités contre des civils. Les vidéos ont été publiées comme preuve pour la poursuite éventuelle de responsables syriens pour crimes contre l'humanité. C'est assez troublant.

    Avancer

    Des géants bien connus des médias sociaux ont déclaré publiquement qu'ils consacreraient plus de ressources à la surveillance de leurs plateformes. Cependant, vu les résultats actuels, il est temps de se demander si cette approche est éthique et efficace.

    Le Royaume-Uni, La France, Allemagne, l'Union européenne et les États-Unis, entre autres, ont commencé à discuter ouvertement et à mettre en œuvre des mesures réglementaires sur l'industrie de la technologie, non seulement concernant le terrorisme et les discours de haine, mais aussi des interférences électorales numériques, la diffusion de « fake news » et de campagnes de désinformation.

    Le Canada a également commencé à prendre le problème au sérieux, former le laboratoire d'inclusion numérique à Affaires mondiales Canada, qui œuvre pour renforcer les efforts conjugués du G7.

    Ce sont des initiatives indispensables. Les grands géants de la technologie ont surestimé l'efficacité de l'IA pour contrer la haine sur leurs plateformes. Nos sociétés démocratiques et ouvertes doivent mettre de côté l'idée que l'IA est la panacée pour le problème actuel. La polarisation sociale et la méfiance croissante à travers la planète se poursuivront à moins que les élus ne réglementent la Big Tech.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com