Saviez-vous que vous pouvez personnaliser Google pour filtrer les déchets ? Suivez ces étapes pour de meilleurs résultats de recherche, notamment en ajoutant mon travail chez Vie Associative comme source préférée.
C’est effrayant de voir à quel point les vidéos générées par l’IA deviennent réalistes. Ce qui est encore plus effrayant, cependant, c’est à quel point les outils permettant de créer ces vidéos sont accessibles. En utilisant quelque chose comme l’application Sora d’OpenAI, les gens peuvent créer des vidéos courtes hyper réalistes de à peu près tout ce qu’ils veulent, y compris de vraies personnes, comme des célébrités, des amis ou même eux-mêmes.
OpenAI connaît les risques liés à une application qui facilite la génération de vidéos réalistes. En tant que telle, la société place un filigrane sur toute génération Sora que vous créez via l’application. De cette façon, lorsque vous parcourez vos flux de médias sociaux, si vous voyez un petit logo Sora avec un joli nuage avec des yeux qui rebondissent, vous savez qu’il est généré par l’IA.
Vous ne pouvez pas faire confiance à un filigrane Sora
Mon inquiétude immédiate lorsque OpenAI a annoncé cette application était que les gens trouveraient un moyen de supprimer le filigrane, semant ainsi la confusion sur Internet. Je n’avais pas tort : il existe déjà de nombreuses options pour les parties intéressées qui souhaitent rendre leur IA encore plus réaliste. Mais ce à quoi je ne m’attendais pas, c’est le contraire : des gens qui veulent ajouter le filigrane Sora sur de vraies vidéos, pour leur donner l’impression qu’elles ont été créées avec l’IA.
J’étais récemment en train de faire défiler – ou peut-être de faire un doomscroll – sur X lorsque j’ai commencé à voir certaines de ces vidéos, comme celle-ci mettant en vedette le dirigeant d’Apple, Craig Federighi : Le message dit « Sora devient tellement bon » et inclut le filigrane Sora, j’ai donc supposé que quelqu’un avait fait une apparition de Federighi dans l’application et l’avait posté sur X. À ma grande surprise, cependant, la vidéo est simplement extraite de l’un des événements WWDC préenregistrés d’Apple – un où Federighi fait des parkours autour du siège d’Apple.
Plus tard, j’ai vu ce clip, qui utilise également un filigrane Sora. À première vue, vous pourriez croire qu’il s’agit d’un produit OpenAI. Mais regardez de plus près, et vous pouvez voir que le clip utilise de vraies personnes : les plans sont trop parfaits, sans le flou ou les problèmes que vous avez tendance à voir avec la génération vidéo AI. Ce clip usurpe simplement la façon dont Sora a tendance à générer des clips multi-plans de personnes parlant. (Les spectateurs avisés remarqueront peut-être également que le filigrane est un peu plus grand et plus statique que le véritable filigrane Sora.)
Ce Tweet est actuellement indisponible. Il est peut-être en cours de chargement ou a été supprimé.
Il s’avère que le compte qui a publié ce deuxième clip a également créé un outil permettant d’ajouter un filigrane Sora à n’importe quelle vidéo. Ils n’expliquent pas la pensée ou le but derrière l’outil, mais c’est définitivement réel. Et même si cet outil n’existait pas, je suis sûr qu’il ne serait pas trop difficile d’éditer un filigrane Sora dans une vidéo, surtout si vous n’étiez pas soucieux de reproduire le mouvement du filigrane officiel de Sora.
Pour être clair, les gens publiaient déjà comme ça avant d’ajouter l’outil de filigrane. La blague, c’est de dire que vous avez fait quelque chose avec Sora, mais de publier à la place un clip populaire ou tristement célèbre – par exemple, la publicité Sprite de Drake d’il y a 15 ans, Taylor Swift dansant au Eras Tour, ou un film entier. Sonic le hérisson film. C’est un mème amusant, surtout quand il est évident que la vidéo n’était pas réalisé par Sora.
Ce Tweet est actuellement indisponible. Il est peut-être en cours de chargement ou a été supprimé.
Réel ou pas réel ?
Mais c’est un rappel important pour être constamment vigilant lorsque vous faites défiler les vidéos sur vos flux. Vous devez être à l’affût des clips qui ne sont pas réels, ainsi que des clips qui sont réellement réels, mais qui sont annoncés comme générés par l’IA. Il y a ici de nombreuses implications. Bien sûr, c’est amusant d’apposer un filigrane Sora sur une vidéo virale, mais que se passe-t-il lorsque quelqu’un ajoute le filigrane à une vraie vidéo d’activité illégale ? « Oh, cette vidéo n’est pas réelle. Toutes les vidéos que vous voyez sans filigrane ont été falsifiées. »
Pour le moment, il semble que personne n’ait compris comment reproduire parfaitement le filigrane Sora. Il y aura donc des signes si quelqu’un essaie réellement de faire passer une vraie vidéo pour de l’IA. Mais tout cela reste un peu inquiétant et je ne sais pas quelle pourrait être la solution. Peut-être nous dirigeons-nous vers un avenir dans lequel les vidéos sur Internet seront simplement considérées comme peu fiables à tous les niveaux. Si vous ne pouvez pas déterminer ce qui est réel ou faux, pourquoi essayer ?
