Dans cette image mise à disposition le mardi 16 avril, 2019 des flammes et de la fumée s'élèvent de l'incendie alors que la flèche commence à s'effondrer sur la cathédrale Notre-Dame de Paris, Lundi, 15 avril, 2019. Un enfer qui a sévi dans la cathédrale Notre-Dame pendant plus de 12 heures a détruit sa flèche et sa toiture mais a épargné ses deux clochers médiévaux, et un effort de sauvetage frénétique a sauvé les "trésors les plus précieux du monument, " y compris la couronne d'épines prétendument portée par Jésus, ont déclaré mardi des responsables. (Photo AP/Thierry Mallet)
YouTube pourrait avoir besoin de quelques humains supplémentaires. Les machines dont le travail consiste à étouffer les théories du complot ne le font pas encore.
Alors que les gens du monde entier se tournaient lundi vers YouTube pour regarder la cathédrale Notre-Dame brûler à Paris, un système automatisé a joint des informations générales sur les attentats terroristes du 11 septembre à New York à des vidéos en direct de l'incendie.
La cause de l'incendie n'a pas été déterminée, mais les autorités ont dit que cela semblait être accidentel, pas d'incendie criminel ou de terrorisme.
La note d'information a été publiée par un système YouTube récemment mis en place pour lutter contre les complots bien connus sur des événements tels que l'alunissage ou le 11 septembre. Dans ce cas, l'algorithme aurait pu avoir l'effet inverse, alimentant les spéculations sur la cause de l'incendie et sur qui pourrait être derrière.
C'est le dernier exemple de raté de l'intelligence artificielle et un signe que nous avons un long chemin à parcourir avant que l'IA ne devienne suffisamment intelligente pour comprendre les nuances et le contexte.
Dans un rapport, YouTube a expliqué que les informations de base - une entrée de l'Encyclopedia Britannica - y ont été placées par erreur par des algorithmes destinés à protéger les utilisateurs contre le faux matériel qui se propage à la suite de certains événements d'actualité.
Les algorithmes de YouTube ont l'habitude d'avoir des ratés et d'étiqueter des vidéos de manière inappropriée. Josué Benton, directeur du Nieman Journalism Lab à l'Université Harvard, ont noté plusieurs dans un article de blog lundi.
L'automne dernier, par exemple, YouTube a étiqueté une vidéo de la retraite d'un professeur de l'Université d'État du Michigan avec l'entrée Encyclopedia Britannica pour « Juif, " accompagné d'une étoile de David placée sous l'image. Le professeur, Ken Waltzer, avait dirigé le programme d'études juives de l'université, mais Benton a noté que rien dans le titre ou la description de la vidéo ne mentionnait quoi que ce soit de juif.
l'algorithme de YouTube, qui est vraisemblablement prêt à réprimer les complots antisémites, en quelque sorte l'a fait tout seul.
Lorsque YouTube a annoncé ses efforts de lutte contre le complot l'été dernier, il a dit qu'il contrerait les informations fausses avec des sources auxquelles les gens ont généralement confiance, comme Wikipédia et Encyclopedia Britannica. Il a déclaré qu'il ajouterait l'arrière-plan de ces sources aux vidéos qui présentent des sujets de complot courants (par exemple, vaccins, fusillades dans des écoles ou l'attentat à la bombe d'Oklahoma City en 1995), indépendamment du fait que les vidéos soutiennent ou non une théorie du complot.
Des vidéos de l'incendie de Notre-Dame ont été diffusées en grand, organismes de presse de confiance. l'intelligence artificielle de YouTube, cependant, n'a fait aucune exception.
Le lundi, la société a rapidement corrigé l'erreur de Notre Dame et a déclaré que ses systèmes "font parfois le mauvais appel". Il a éteint les panneaux d'information pour les vidéos de l'incendie mais n'a pas précisé s'il examinait la pratique de manière plus large.
"Je pense qu'ils sont en quelque sorte des allers-retours sur le bien que cela fait, " a déclaré Benton. " Cela touche à la question centrale que nous voyons avec Facebook et YouTube et toute autre plate-forme technologique qui aspire à une échelle mondiale. Il y a tout simplement trop de contenu à surveiller et vous ne pouvez pas laisser des êtres humains surveiller chaque vidéo."
Au lieu, nous avons des machines qui sont clairement encore en train d'apprendre sur le tas.
"C'est une chose de se tromper quand les enjeux sont faibles, " Benton a déclaré. "Quand c'est la plus grande nouvelle du monde, il semble qu'ils pourraient avoir plus de gens qui le regardent."
© 2019 La Presse Associée. Tous les droits sont réservés.