Gemini 3 Flash surpasse Gemini 3 Pro et GPT 5.2 dans ces tests clés

Les guerres contre l’IA continuent de s’intensifier. Quelques semaines seulement après qu’OpenAI ait déclaré un « code rouge » dans sa course contre Google, ce dernier a sorti son dernier modèle léger : Gemini 3 Flash. Ce Flash particulier est le dernier né de la famille Gemini 3 de Google, qui a commencé avec Gemini 3 Pro et Gemini 3 Deep Think. Mais même si ce dernier modèle est censé être une variante plus légère et moins chère des modèles Gemini 3 existants, le Gemini 3 Flash est en réalité assez puissant en soi. En fait, il bat les modèles Gemini 3 Pro et GPT-5.2 d’OpenAI dans certains benchmarks.

Les modèles légers sont généralement destinés à des requêtes plus basiques, à des requêtes à moindre budget ou à être exécutés sur du matériel moins puissant. Cela signifie qu’ils sont souvent plus rapides que les modèles plus puissants qui prennent plus de temps à traiter, mais peuvent faire plus. Selon Google, Gemini 3 Flash combine le meilleur de ces deux mondes, produisant un modèle avec le « raisonnement de qualité professionnelle » de Gemini 3, avec « une latence, une efficacité et un coût de niveau Flash ». Bien que cela soit probablement le plus important pour les développeurs, les utilisateurs généraux devraient également remarquer les améliorations, car Gemini 3 Flash est désormais la valeur par défaut pour Gemini (le chatbot) et le mode AI, la recherche basée sur l’IA de Google.

Performances du Gemini 3 Flash

Vous pouvez constater ces améliorations dans les statistiques d’analyse comparative rapportées par Google pour Gemini 3 Flash. Dans Humanity’s Last Exam, une référence de raisonnement académique qui teste les LLM sur 2 500 questions couvrant plus de 100 sujets, Gemini 3 Flash a obtenu un score de 33,7 % sans outils et de 43,5 % avec la recherche et l’exécution de code. Comparez cela aux scores de Gemini 3 Pro de 37,5 % et 45,8 %, respectivement, ou aux scores d’OpenAI GPT-5.2 de 34,5 % et 45,5 %. Dans MMMU-Pro, un benchmark qui teste la compréhension et le raisonnement multimodaux d’un modèle, Gemini 3 Flash a obtenu le meilleur score (81,2 %), comparé à Gemini 3 Pro (81 %) et GPT-5.2 (79,5). En fait, sur les 21 tests d’analyse comparative présentés par Google dans son annonce, Gemini 3 Flash obtient le meilleur score sur trois : MMMU-Pro (à égalité avec Gemini 3 Pro), Toolathlon et MMMLU. Gemini 3 Pro occupe toujours la première place dans le plus grand nombre de tests ici (14), et GPT-5.2 a dominé huit tests, mais Gemini 3 Flash tient le coup.

Google note que Gemini 3 Flash surpasse également Gemini 3 Pro et l’ensemble de la série 2.5 dans le benchmark SWE-bench Verified, qui teste les capacités de l’agent de codage du modèle. Gemini 3 Flash a obtenu un score de 78 %, tandis que Gemini 3 Pro a obtenu un score de 76,2 %, Gemini 2.5 Flash un score de 60,4 % et Gemini 2.5 Pro un score de 59,6 %. (Notez que GPT-5.2 a obtenu le meilleur score parmi les modèles mentionnés par Google dans cette annonce.) C’est une course serrée, surtout si l’on considère qu’il s’agit d’un modèle léger qui se classe aux côtés des modèles phares de cette société.

Coût Flash Gémeaux 3

Cela pourrait présenter un dilemme intéressant pour les développeurs qui paient pour utiliser des modèles d’IA dans leurs programmes. Gemini 3 Flash coûte 0,50 $ par million de jetons d’entrée (ce que vous demandez au modèle de faire) et 3,00 $ par million de jetons de sortie (le résultat que le modèle renvoie à partir de votre invite). Comparez cela à Gemini 3 Pro, qui coûte 2,00 $ par million de jetons d’entrée et 12,00 $ par million de jetons de sortie, ou les coûts de GPT-5.2 de 3,00 $ et 15,00 $, respectivement. Pour ce que ça vaut, il n’est pas aussi bon marché que Gemini 2.5 Flash (0,30 $ et 2,50 $), ou Grok 4.1 Fast d’ailleurs (0,20 $ et 0,50 $), mais il surpasse ces modèles dans les benchmarks rapportés par Google. Google note que Gemini 3 Flash utilise en moyenne 30 % de jetons en moins que 2.5 Pro, ce qui permettra de réduire les coûts, tout en étant trois fois plus rapide.

Si vous avez besoin de LLM comme Gemini 3 Flash pour alimenter vos produits, mais que vous ne voulez pas payer les coûts plus élevés associés à des modèles plus puissants, je pourrais imaginer ce dernier modèle léger attrayant d’un point de vue financier.

Comment l’utilisateur moyen expérimentera Gemini 3 Flash

La plupart d’entre nous qui utilisent l’IA ne le font pas en tant que développeurs qui doivent se soucier du prix des API. La majorité des utilisateurs de Gemini découvrent probablement ce modèle via les produits grand public de Google, tels que Search, Workspace et l’application Gemini.

À partir d’aujourd’hui, Gemini 3 Flash est le modèle par défaut dans l’application Gemini. Google affirme pouvoir gérer de nombreuses tâches « en quelques secondes seulement ». Cela peut inclure de demander à Gemini des conseils pour améliorer votre swing de golf sur la base d’une vidéo de vous-même, ou de télécharger un discours sur un sujet historique donné et de demander tous les faits que vous auriez pu manquer. Vous pouvez également demander au bot de vous coder une application fonctionnelle à partir d’une série de pensées.

Vous découvrirez également Gemini 3 Flash dans le mode AI de la recherche Google. Google affirme que le nouveau modèle est plus efficace pour « analyser les nuances de votre question » et réfléchit à chaque partie de votre demande. Le mode AI essaie de renvoyer un résultat de recherche plus complet en analysant des centaines de sites à la fois et en établissant un résumé avec les sources de votre réponse. Nous devrons voir si Gemini 3 Flash s’améliore par rapport aux itérations précédentes du mode AI.

Je suis quelqu’un qui ne trouve toujours pas beaucoup d’utilité aux produits d’IA générative dans sa vie de tous les jours, et je ne suis pas entièrement sûr que Gemini 3 Flash va changer cela pour moi. Cependant, l’équilibre entre les gains de performances et le coût de traitement de cette puissance est intéressant, et je suis particulièrement intrigué de voir comment OpenAI réagit.

Gemini 3 Flash est disponible pour tous les utilisateurs à partir d’aujourd’hui. En plus des utilisateurs généraux de Gemini et du mode AI, les développeurs le trouveront dans l’API Gemini de Google AI Studio, Gemini CLI et Google Antigravity, la nouvelle plate-forme de développement agent de la société. Les utilisateurs d’entreprise peuvent l’utiliser dans Vertex AI et Gemini Enterprise.