Lorsqu'un enfant parcourt YouTube, le contenu qui lui est recommandé n'est pas toujours adapté à son âge, suggère une nouvelle étude.
Les chercheurs ont imité les comportements de recherche des enfants en utilisant des termes de recherche populaires, tels que mèmes, Minecraft et Fortnite, et ont capturé les miniatures vidéo recommandées à la fin de chaque vidéo.
Parmi les 2 880 miniatures analysées, beaucoup contenaient des appâts à clics problématiques, tels que de la violence ou des images effrayantes, selon une étude menée par Michigan Medicine dans JAMA Network Open. .
"Les enfants passent beaucoup de temps sur des plateformes de partage de vidéos gratuites qui incluent du contenu généré par les utilisateurs", a déclaré l'auteur principal Jenny Radesky, M.D., pédiatre comportementale et développementale à l'hôpital pour enfants C.S. Mott de l'Université du Michigan Health.
"Il est important de comprendre que les plateformes proposant des milliards d'heures de contenu ne peuvent pas effectuer un examen humain de tout ce qui est suggéré aux enfants et utiliser des algorithmes imparfaits. Les parents et les enfants doivent être conscients des risques d'exposition à un contenu inapproprié et développer des stratégies pour y remédier. évitez-le."
Certaines recherches suggèrent que les enfants de huit ans et moins passent environ 65 % de leur temps en ligne sur des sites de partage de vidéos, dont beaucoup en moyenne une heure par jour, explique Radesky.
Avec des centaines de vidéos téléchargées sur ces plateformes chaque minute, la plupart des sites de modération de contenu s'appuient sur des systèmes automatisés pour signaler les vidéos qui enfreignent les politiques ou présentent du contenu violent ou dangereux. En réponse, certaines plates-formes comme YouTube ont créé des étiquettes conçues pour les enfants afin d'identifier le contenu approprié pour les jeunes téléspectateurs.
Mais des recherches récentes suggèrent que de nombreux jeunes enfants recherchent des vidéos qui n'entrent pas dans les catégories « adaptées aux enfants », recherchant des influenceurs, des jeux vidéo ou des vidéos amusantes.
Parmi les miniatures obtenues lors des recherches, plus de la moitié ont été identifiées comme contenant des messages « choquants, dramatiques ou scandaleux », suggère l'étude. Un peu moins d'un tiers incluaient de la violence, des périls et des farces, tandis que 29 % incluaient des images « effrayantes, bizarres et dérangeantes ».
Les chercheurs ont signalé d'autres suggestions de contenu pour « l'intensité visuelle » ou l'utilisation de designs capturant l'attention, ainsi que des drames et des intrigues fabriqués et des représentations d'articles de luxe farfelus, tels que des voitures, des bijoux et des maisons. Un plus faible pourcentage de suggestions automatisées incluaient des stéréotypes de genre.
"Ces résultats contribuent à l'essor des recherches sur la manière dont les conceptions numériques visent à capter et à retenir l'attention des utilisateurs", a déclaré Radesky. "Nous avons besoin de plus de recherches sur les interactions des enfants avec ces plateformes pour orienter de meilleures politiques qui les protègent des expériences médiatiques négatives."