Voici les nouveautés de Veo 3.1, le dernier modèle vidéo AI de Google

Encore plus de façons de créer des vidéos générées par l’IA.

Saviez-vous que vous pouvez personnaliser Google pour filtrer les déchets ? Suivez ces étapes pour de meilleurs résultats de recherche, notamment en ajoutant mon travail chez Vie Associative comme source préférée.


La nouvelle application Sora d’OpenAI a été au centre de l’attention en matière d’IA hyper-réaliste au cours des dernières semaines. Sora permet aux utilisateurs de générer très facilement des vidéos courtes qui semblent suffisamment réelles pour la plupart des gens, y compris des vidéos qui présentent des ressemblances avec de vraies personnes.

Mais avant que Sora ne soit abandonné, c’était Google qui suscitait les craintes concernant ces vidéos réalistes d’IA. Avec Veo 3, Google a lancé un modèle d’IA qui non seulement produisait des vidéos réalistes, mais générait également un son réaliste synchronisé avec l’action. Les effets sonores, les environnements et même les dialogues pourraient tous être générés parallèlement à la vidéo elle-même, vendant ainsi l’effet entièrement à partir d’une simple invite.

Véo 3.1

Maintenant, Google est de retour avec une mise à niveau vers Veo, nommée à juste titre Veo 3.1, annoncée par la société dans un article de blog mercredi. Il ne s’agit pas nécessairement d’une refonte ou d’un nouveau modèle vidéo révolutionnaire. Au lieu de cela, Veo 3.1 s’appuie sur Veo 3, en ajoutant « un son plus riche » et un « réalisme amélioré » qui, selon Google, génèrent des textures « fidèles à la réalité ». Le nouveau modèle prendrait également en charge de nouveaux outils de contrôle narratif, associés aux nouvelles mises à niveau de Flow, l’éditeur vidéo IA de Google. Les utilisateurs de Flow disposent désormais de contrôles plus précis lors de l’édition et peuvent ajouter de l’audio aux fonctionnalités existantes telles que « Ingrédients vers la vidéo », « Images vers la vidéo » et « Extension ».

Qu’est-ce que cela signifie en pratique ? Selon Google, Ingredients to Video avec Veo 3.1 permet aux utilisateurs d’ajouter des images de référence à leurs scènes, comme une personne spécifique, des vêtements ou un environnement. Le nouvel éditeur Flow peut ensuite insérer ces éléments dans le produit fini, comme vous pouvez le voir dans la vidéo de démonstration ci-dessous :

S’appuyant sur cette nouvelle fonctionnalité, Flow vous permet désormais d’ajouter de nouveaux éléments à une scène existante. Avec « Insérer », vous pouvez demander à Veo 3.1 d’ajouter de nouveaux personnages, détails, effets d’éclairage et bien plus encore au clip. Google affirme qu’il travaille également à l’inverse, pour permettre aux utilisateurs de supprimer d’une génération tous les éléments qu’ils n’aiment pas.

Google propose également désormais aux utilisateurs une nouvelle façon de dicter la façon dont ils souhaitent qu’une scène soit générée, appelée « Première et dernière image ». Les utilisateurs peuvent choisir des images de référence pour le début et la fin d’une scène. Flow avec Veo 3.1 comblera alors le vide et générera une scène qui commence et se termine en fonction de ces images.

Il existe également désormais un moyen de créer des vidéos plus longues que celles générées par les itérations précédentes de Flow. La nouvelle fonctionnalité « Étendre » vous permet soit de continuer l’action du clip en cours, soit de passer à une nouvelle scène qui le suit, bien que Google affirme que cette fonctionnalité est plus utile pour générer un plan d’établissement plus long. Selon l’entreprise, Extend peut créer des vidéos d’une durée supérieure à une minute.

Veo 3.1 est disponible pour les utilisateurs de l’application Gemini ainsi que de Vertex AI, à condition que vous disposiez d’un abonnement Google AI Pro. Les développeurs peuvent y accéder via l’API Gemini. Google indique que les ingrédients de la vidéo, la première et la dernière image et l’extension arrivent dans l’API Gemini, mais « Ajouter un objet » et « Supprimer un objet » ne sont pas disponibles. « Extend » n’est pas non plus encore disponible dans l’API Vertex AI.

Est-ce vraiment une bonne chose ?

Google considère toutes ces avancées comme une aubaine pour les créatifs et la créativité, mais je suis très sceptique. Je pourrais voir Veo 3.1 et Flow comme un bon outil pour visualiser des plans avant de les filmer ou de les animer (c’est-à-dire un outil de storyboard), ou même un moyen pour les cinéastes nouveaux et en herbe d’apprendre le montage en voyant leurs idées sous une forme plus réalisée. Cependant, dans l’ensemble, je ne pense pas que le contenu généré par l’IA soit l’avenir – ou, du moins, pas l’avenir souhaité par la plupart d’entre nous. Bien sûr, il y a de l’humour ou de la nouveauté dans certaines de ces vidéos générées par l’IA, mais je parierais que la plupart des gens qui les apprécient le font ironiquement, ou exclusivement sur les réseaux sociaux.

L’idée de remplacer les cinéastes et acteurs humains par des générations d’IA semble absurde, surtout lorsqu’elle nous expose tous au risque de désinformation. Est-il vraiment si important pour des entreprises comme Google et OpenAI de faciliter la génération de scènes hyperréalistes au rendu complet, alors que ces vidéos pourraient si facilement être utilisées pour tromper les masses ? Cela pourrait être les divagations de quelqu’un qui résiste au changement, mais je ne pense pas que la plupart d’entre nous aimeraient voir nos émissions et films préférés réalisés avec passion et émotion, remplacés par des personnages réalistes offrant des performances sourdes et robotiques.