Si vous avez regardé des vidéos sur Internet au cours des deux dernières années, vous avez rencontré du contenu généré par l’IA (même si vous ne vous en rendiez pas compte). Même si certains éléments sont convaincants, un parcelle cela est évident. Par exemple, je suppose que personne ne pensait que ces vidéos narratives dramatiques de personnes faites de fruits étaient minutieusement animées à la main. Ce type de contenu généré artificiellement a été affectueusement (ou pas si affectueusement) étiqueté « AI slop », ce qui résume assez bien la situation : ce sont des bêtises dénuées de sens, réalisées avec peu d’efforts ou d’investissement par un générateur d’IA, qui récoltent de l’argent réel en devenant virales sur les réseaux sociaux.
Alors que toutes les plateformes qui présentent des vidéos courtes sont inévitablement déjà remplies de déchets d’IA, YouTube a été particulièrement touché. Les courts métrages YouTube peuvent être à la limite impossibles à regarder, selon votre algorithme. (Essayez de regarder dans une fenêtre de navigation privée pour voir ce que la plate-forme propose à partir d’une page vierge ; c’est sauvage.) Ce qui est pire, l’algorithme de YouTube montre ces vidéos aux enfants. Les vidéos courtes sont déjà assez mauvaises pour les enfants à bien des égards, mais l’intelligence artificielle les amène à un autre niveau.
« Est-ce que ça ressemble à une erreur d’IA ? »
Il y a au moins de bonnes nouvelles sur ce front : comme le rapporte Dexerto, à partir de ce mois-ci, il semble que YouTube demande désormais aux utilisateurs leur aide pour identifier ce contenu généré par l’IA. En fait, l’entreprise ne mâche pas ses mots et ne tourne pas autour du pot. Si vous êtes appelé à l’action, vous recevrez une fenêtre contextuelle indiquant littéralement : « Est-ce que cela ressemble à une erreur d’IA ? » Selon une capture d’écran de ce Redditor, vous aurez la possibilité de répondre avec l’une des options suivantes : « Pas du tout », « Légèrement », « Modérément », « Beaucoup » ou « Extrêmement ».
Pourquoi YouTube demande-t-il votre aide pour identifier les erreurs d’IA ?
Cela peut sembler une bonne chose, et j’espère que c’est le cas. Dans un monde idéal, YouTube tirerait les résultats de ces découvertes et supprimerait les vidéos flagrantes. Cela fait suite à certaines des actions passées de l’entreprise : YouTube a même supprimé des chaînes d’IA populaires au nom de « réduire la diffusion de contenus répétitifs et de mauvaise qualité ».
Mais Dexerto met en avant une théorie différentecelui qui est moins optimiste. Peut-être que la raison pour laquelle YouTube vous propose autant de choix dans sa fenêtre contextuelle est de comprendre plus précisément comment les téléspectateurs interprètent ces vidéos IA. YouTube sera alors en mesure de déterminer quelles vidéos sont manifestement dues à l’IA, par rapport aux vidéos qui existent dans l’étrange vallée. Grâce à ces données, ils pourront entraîner leurs propres modèles vidéo d’IA pour générer du contenu qui n’a pas apparaître comme une bêtise pour la plupart des téléspectateurs. Si vous faites défiler les Shorts et les vidéos que vous voyez sentir réels, quelle est la probabilité que vous vous demandiez s’ils sont légitimes ou non ?
J’espère que ce n’est pas le cas. Bien que ma confiance dans les entreprises technologiques reste faible, j’ai été impressionné par la position récente de YouTube contre les erreurs d’IA, et ces pop-ups signalés semblent être un autre pas dans la bonne direction. Avec un peu de chance, YouTube continuera à proposer du contenu créé par l’homme de meilleure qualité et à écraser les déchets d’IA de mauvaise qualité.