Google I / O 2025 était plein d’annonces. Le problème est que Google n’est pas toujours clair sur les fonctionnalités nouvelles, qui ont déjà été publiées et qui sortent à l’avenir.
Bien qu’il existe de nombreuses fonctionnalités à rechercher à l’horizon, et un nombre encore que vous avez pu utiliser depuis un certain temps, il existe de nouvelles fonctionnalités Google immédiatement après les avoir annoncés. Voici toutes les fonctionnalités d’E / S Google que vous pouvez consulter dès maintenant, bien que certains vous obligent à payer.
Imagen 4

Le dernier modèle de génération d’images AI de Google, Imagen 4, est disponible aujourd’hui. Google était clairsemé sur trop de mises à niveau spécifiques avec ce nouveau modèle, mais dit que l’imagen est plus rapide, et désormais capable d’images jusqu’à une résolution 2K avec des rapports d’aspect supplémentaires.
Le changement sur lequel l’entreprise a le plus concentré sur la typographie: Google dit que l’imagen 4 peut générer du texte sans aucune des erreurs d’IA habituelles que vous associez aux générateurs d’images d’IA. En plus de cela, le modèle peut incorporer différents styles d’art et choix de conception, selon le contexte de l’invite. Vous pouvez voir que dans l’image ci-dessus, qui utilise un design pixélisé pour le texte pour correspondre au look de bande dessinée 8 bits.
Vous pouvez essayer le dernier modèle Imageen dans l’application Gemini, la fouet, le sommet AI et via des applications d’espace de travail comme les diapositives, les vidéos et les documents.
Mode AI
Le mode AI transforme essentiellement la recherche en chat Gemini: il vous permet de poser des questions plus compliquées et en plusieurs étapes. Google utilise ensuite une technique « Requête Fan-Out » pour scanner le Web pour des liens pertinents et générer une réponse complète à partir de ces résultats. Je n’ai pas plongé trop profondément dans cette fonctionnalité, mais cela fonctionne largement comme annoncé – je ne sais pas si c’est beaucoup plus utile que de rechercher les liens moi-même.
Google teste le mode AI depuis mars, mais maintenant il est disponible pour tous les États-Unis si vous souhaitez l’utiliser, vous devriez voir la nouvelle option de mode AI sur le côté droit de la barre de recherche sur la page d’accueil de Google.
« Essayez-le »
Les achats en ligne sont donc Beaucoup plus pratique que d’aller en personne, à toutes les manières mais un: vous ne pouvez essayer aucun des vêtements à l’avance. Une fois arrivés, vous les essayez, et s’ils ne correspondent pas, ou si vous n’aimez pas le look, retournez au magasin, ils vont.
Google veut éliminer (ou, au moins, réduire considérablement) cela de cela. Sa nouvelle fonctionnalité « Essay It on » scanne une image que vous vous fournissez pour vous comprendre. Ensuite, lorsque vous parcourez de nouveaux vêtements en ligne, vous pouvez choisir de « l’essayer », et l’IA de Google générera une image de vous portant l’article de vêtements.
C’est un concept intéressant, mais aussi un peu effrayant. Personnellement, je ne veux pas que Google analyse les images de moi-même afin qu’il puisse cartographier plus précisément différents types de vêtements sur moi. Personnellement, je préfère courir le risque de faire un retour. Mais si vous voulez essayer, vous pouvez essayer la fonctionnalité expérimentale dans Google Labs aujourd’hui.
Jules
Jules est « Assistant de codage agentique » de Google de Google. Selon Google, l’assistant clones de votre base de code dans une machine virtuelle Google Cloud sécurisée, afin qu’il puisse exécuter des tâches telles que l’écriture de tests, la création de fonctionnalités, la génération de changelogs audio, la correction des bogues et les versions de dépendance.
L’assistant travaille en arrière-plan et n’utilise pas votre code pour la formation, ce qui est un peu rafraîchissant d’une entreprise comme Google. Je ne suis pas un codeur, donc je ne peux pas dire avec certitude si Jules semble utile. Mais si vous êtes un codeur, vous pouvez le tester par vous-même. À ce jour, Jules est disponible en tant que version bêta publique gratuite pour tous ceux qui veulent l’essayer, bien que Google dit que les limites d’utilisation s’appliquent et qu’ils factureront différents plans de Jules une fois que la «plate-forme sera à la fin».
Traduction de la parole dans Google Meet
Si vous êtes un abonné Google Workspace, cette prochaine fonctionnalité est assez géniale. Comme le montre le Keynote d’E / S, Google Meet a maintenant une traduction de la parole en direct. Voici comment cela fonctionne: disons que vous parlez à quelqu’un sur un appel de rencontre Google qui parle espagnol, mais que vous ne parlez que l’anglais. Vous entendrez l’autre appelant parler en espagnol pendant un instant ou deux, avant qu’une voix d’IA ne les décroît avec la traduction en anglais. Ils recevront le contraire de leur côté après avoir commencé à parler.
Google travaille à ajouter plus de langues dans les prochaines semaines.
Abonnement Google AI Ultra
Il y a un nouvel abonnement en ville, bien que ce ne soit pas pour les moins de cœur. Google a annoncé hier un nouvel abonnement « AI Ultra » à E / S, ce qui coûte 250 $ par mois.
Ce prix extraordinaire est livré avec certaines fonctionnalités d’IA majeures: vous avez accès aux limites les plus élevées pour tous les modèles d’IA de Google, y compris Gemini 2.5 Deep Think, Veo 3 et Project Mariner. Il est également livré avec 30 To de stockage cloud et, de manière amusante, un abonnement YouTube Premium.
Que pensez-vous jusqu’à présent?
Vous devez vraiment être un grand partisan de l’IA pour tomber plus de 3 000 $ par an sur cet abonnement. Si vous avez une curiosité en herbe pour l’IA, peut-être que le plan « AI Pro » de Google est plus votre vitesse – c’est le nouveau nom de l’abonnement IA Premium de Google, et est livré avec les mêmes avantages, plus l’accès à l’écoulement (que je couvrirai ci-dessous).
Veo
Veo 3 est le dernier modèle vidéo d’IA de Google. Contrairement à Imagen 4, cependant, il n’est disponible que pour les abonnés AI Ultra. Si vous n’êtes pas à l’aise de dépenser 250 $ par mois sur les services de Google, vous devrez vous en tenir à Veo 2.
Google dit que Veo 3 est meilleur en physique du monde réel que Veo 2 et peut gérer des lèvres réalistes. Vous pouvez le voir dans le clip ci-dessus, qui montre un « vieux marin » récitant un poème. Ses lèvres correspondent en effet au discours, et la vidéo est nette avec des éléments de réalisme. Personnellement, je ne pense pas que cela ait l’air « réel », et il a encore beaucoup de dire que c’est une vidéo d’IA, mais il ne fait aucun doute que nous entrons dans des eaux dangereuses avec une vidéo AI.
Les abonnés AI Pro avec accès à VEO 2 ont également de nouvelles capacités de modèle vidéo. Vous avez maintenant des commandes de caméra pour dicter à quoi vous voulez ressembler les photos; options pour ajuster le rapport d’aspect du clip; outils pour ajouter ou supprimer des objets d’une scène; et les commandes pour «surpasser» ou pour ajouter à la scène d’un clip.
Couler
Google n’a pas simplement mis à niveau son modèle vidéo AI: il a également publié un éditeur vidéo AI, appelé Flow.
Flow vous permet de générer des vidéos en utilisant VEO 2 et VEO 3, mais cela vous permet également de couper ces clips sur une chronologie et de contrôler les mouvements de la caméra de vos clips. Vous pouvez utiliser Imagen pour générer un élément que vous souhaitez ajouter à une scène, puis demander à VEO de générer un clip avec cet élément.
Je suis sûr que les amateurs de films d’IA vont adorer cela, mais je reste sceptique. Je pouvais voir que c’est un outil utile pour les idées d’embarquement, mais pour la création de contenu réel? Je sais que je ne veux pas regarder des émissions complètes ou des films générés par l’IA. Peut-être que l’étrange vidéo Instagram me fait rire, mais je ne pense pas que les bobines soient l’objectif final de Google ici.
Le flux est disponible pour les abonnés AI Pro et AI Ultra. Si vous avez AI Pro, vous pouvez accéder à VEO 2, mais les abonnés AI Ultra peuvent choisir entre VEO 2 et VEO 3.
Gémeaux en chrome
Les abonnés AI Pro et AI Ultra ont désormais accès aux Gémeaux dans Google Chrome, qui apparaît dans la barre d’outils de votre fenêtre de navigateur. Vous pouvez demander à l’assistant de résumer une page Web, ainsi que de vous renseigner sur les éléments de cette page Web. Il existe des plans pour les fonctionnalités agentiques à l’avenir, afin que Gemini puisse consulter des sites Web pour vous, mais, pour l’instant, vous êtes vraiment limité à deux fonctions.