Les téléphones Pixel 10 de Google ont fait leurs débuts officiels cette semaine, et avec eux, un tas d’IA génératifs figurent directement dans l’application de la caméra. Il est normal que les téléphones utilisent la «photographie de calcul» de nos jours, un terme sophistiqué pour tous ces effets d’éclairage et de post-traitement qu’ils ajoutent à vos photos pendant que vous les prenez. Mais l’IA fait de la photographie computationnelle en une autre bête entièrement, et c’est celle que je ne suis pas sûre que nous sommes prêts.
Les nerds technologiques aiment nous demander «Qu’est-ce qu’une photo?» Un peu de plaisanterie que plus la post-traitement est ajoutée à une image, moins elle ressemble à quelque chose qui s’est réellement passé dans la vraie vie. Le ciel nocturne étant trop brillant, les visages ayant moins de imperfections qu’un miroir ne le montreraient, ce genre de chose. L’IA générative dans l’application de la caméra est comme le boss final de cette énigme morale. Cela ne veut pas dire que ces fonctionnalités ne sont pas toutes utiles, mais à la fin de la journée, c’est une sorte de débat philosophique autant qu’un débat technique.
Les photos sont-elles censées ressembler à ce que le photographe voyait réellement avec leurs yeux, ou sont-ils censés être aussi attrayants que possible, le réalisme est damné? Il a été assez facile de garder ces questions aux cercles les plus nitpicky pour l’instant – qui se soucie vraiment si le ciel est un peu trop néon si cela aide votre photo à faire plus? – mais si l’IA veut commencer à ajouter de nouveaux objets ou arrière-plans à vos photos, avant même d’ouvrir l’application Gemini, il est temps pour tout le monde de commencer à se demander ce qu’ils veulent de leurs phones.
Et la façon dont Google utilise l’IA dans ses nouveaux téléphones, il est possible que vous puissiez vous retrouver avec une photo d’IA et ne pas le savoir vraiment.
Pro Res Zoom
Peut-être que le plus flagrant des nouveaux ajouts de caméras d’IA de Google est ce qu’il appelle Pro Res Zoom. Google annonce cela comme un «zoom 100x», et cela fonctionne un peu comme la technologie «zoomer et améliorer» entièrement fictive que vous pourriez voir dans les procédures policières à l’ancienne.
Essentiellement, sur un pixel 10 pro ou pro xl, vous serez désormais en mesure de pousser l’objectif de zoom de 100 fois, et en surface, l’expérience ne sera pas différente d’un zoom logiciel ordinaire (qui repose sur la culture, pas l’IA). Mais à l’intérieur du processeur de votre téléphone, il se heurtera toujours aux mêmes problèmes qui font que «zoomer et améliorer» semblent si ridicules dans des émissions comme CSI.
En bref, le problème est que vous ne pouvez pas inventer la résolution que la caméra n’a pas capturée. Si vous avez zoomé jusqu’à présent que votre objectif de caméra n’a vu que de vagues pixels, il ne pourra jamais savoir avec certitude ce qui était réellement là dans la vraie vie.
C’est pourquoi cette fonctionnalité, malgré un zoom normal et non AI à la surface, est plus un montage AI qu’un zoom 100x réel. Lorsque vous utilisez Pro Res Zoom, votre téléphone zoomera autant que possible, puis utilise les pixels flous qu’il considère comme une invite pour un modèle de diffusion sur les appareils. Le modèle devinera alors à quoi les pixels sont censés ressembler et modifieront le résultat dans votre photo. Cela ne capturera pas la réalité, mais si vous avez de la chance, cela pourrait être assez proche.
Pour certains détails, comme les formations rocheuses ou d’autres objets inanimés banals, cela pourrait être bien. Pour les visages ou les points de repère, cependant, vous pourriez partir avec l’impression que vous venez de recevoir un grand gros plan de, disons, le chanteur principal d’un concert, sans savoir que votre «zoom» n’était essentiellement qu’une demande de Gémeaux de fantaisie. Google dit qu’il essaie de tamponner les hallucinations, mais si une photo cracha par Gemini est quelque chose que vous êtes mal à l’aise ou incluant dans un projet créatif, cela aura les mêmes problèmes – sauf que, en raison de la marque, vous pourriez ne pas réaliser que l’IA était impliquée.
Heureusement, Pro Res Zoom ne remplace pas entièrement le zoom non AI – zoom dans le passé, la limite de zoom matérielle 5x habituelle vous donnera désormais deux résultats à choisir, un avec Pro Res Zoom appliqué et un sans. J’ai écrit à ce sujet plus en détail si vous êtes intéressé, mais même avec des options non AI disponibles, celle de l’IA n’est pas clairement indiquée pendant que vous faites votre sélection.
C’est une approche beaucoup plus décontractée de l’IA que Google n’a adopté dans le passé. Les gens peuvent être habitués à modifier leurs photos lorsqu’ils le demandent, mais l’avoir automatiquement appliqué via votre objectif de caméra est une nouvelle étape.
Demander à modifier
L’intégration d’IA décontractée ne s’arrête pas une fois que vous avez pris votre photo, cependant. Avec Pixel 10, vous pouvez désormais utiliser le langage naturel pour demander à l’IA de modifier vos photos pour vous, directement à partir de l’application Google Photos. Ouvrez simplement la photo que vous souhaitez modifier, appuyez sur l’icône Edit et vous verrez une boîte de discussion qui vous permettra d’utiliser le langage naturel pour suggérer des ajustements sur votre photo. Vous pouvez même parler vos instructions plutôt que de les taper, si vous le souhaitez.
En surface, cela ne me dérange pas. Google Photos a des dizaines de différentes icônes d’édition, et il peut être difficile pour la personne moyenne de savoir comment les utiliser. Si vous voulez une culture simple ou un filtre appliqué, cela vous donne une option pour le faire sans passer par ce qui pourrait être une interface autrement intimidante.
Le problème est que, en plus d’utiliser des outils Google Photos à l’ancienne, la modification vous permettra également de suggérer des changements plus bizarres, et il ne délimitera clairement lorsqu’il utilise l’IA pour effectuer ces changements. Vous pouvez demander à l’IA d’échanger les antécédents de votre photo contre un entièrement nouveau, ou si vous voulez un changement moins radical, vous pouvez lui demander de supprimer les réflexions d’un tir pris par une fenêtre. Le problème? De nombreuses modifications nécessiteront une IA générative, même les apparemment moins destructrices comme l’élimination des reflets, mais vous devrez utiliser votre intuition pour savoir quand elle a été appliquée.
Par exemple, bien que vous verrez généralement un bouton «Ai améliorer» parmi les modifications suggérées de Google Photos, ce n’est pas le seul moyen d’obtenir l’IA dans votre photo. Demandez à Modifier fera de son mieux pour honorer la demande que vous faites, avec tous les outils auxquels il a accès, et compte tenu de l’expérience pratique que j’avais avec elle lors d’une démo avec Google, cela inclut la génération d’IA. Il est peut-être évident qu’il utilisera l’IA pour dire: «Ajoutez une Mercedes derrière moi dans ce selfie», mais je pourrais voir un utilisateur moins averti en technologie en supposant qu’ils pourraient demander à l’IA de «zoomer» sans savoir que changer un rapport d’aspect sans recadrage nécessite également d’utiliser une IA générative. Plus précisément, cela nécessite de demander à une IA d’imaginer ce qui aurait pu entourer tout ce qui était dans votre cliché dans la vraie vie. Puisqu’il n’a aucun moyen de le savoir, il comporte un risque intrinsèquement élevé d’hallucination, peu importe à quel point «zoomer» les sons humbles.
Étant donné que nous parlons d’un outil conçu pour aider les utilisateurs moins littéraux technologiques, je crains qu’il y ait de fortes chances qu’ils puissent accidentellement finir par générer de la fiction et penser que c’est un coup totalement innocent et réaliste.
Entraîneur de la caméra
Ensuite, il y a Camera Coach. Cette fonctionnalité cuit également l’IA dans votre application d’appareil photo, mais ne met pas vraiment l’IA sur vos photos. Au lieu de cela, il utilise l’IA pour suggérer un cadrage alternatif et des angles pour tout ce que votre appareil photo voient, et vous entraîne comment réaliser ces photos.
En d’autres termes, c’est très ce que vous êtes-vous-vous-vous. Les suggestions de l’entraîneur de l’appareil photo ne sont que des idées, et même si les suivre sur eux prennent plus de travail de votre côté, vous pouvez être sûr que la photo que vous prenez ressemblera exactement à ce que vous avez vu dans votre viseur, sans aucune IA.
Cela efface à peu près immédiatement la plupart de mes préoccupations concernant les photos irréelles présentées comme une vérité absolue. Il y a la possibilité que Camera Coach pourrait suggérer une photo qui n’est pas réellement possible à prendre, disons que s’il veut que vous entriez dans une zone restreinte, mais le pire que vous alliez y arriver est de la frustration, pas une photo qui se transmet de la génération d’IA comme si c’était la même chose que, par exemple, en zoomant.
Les gens devraient savoir quand ils utilisent l’IA
Je ne vais pas résoudre le « Qu’est-ce qu’une photo? » Question en un après-midi. La vérité est que certaines photos sont censées représenter le monde réel, et certains sont censés avoir l’air esthétiquement agréables. Je comprends. Si l’IA peut aider une photo à être plus attrayante visuellement, même si elle n’est pas entièrement vraie à la vie, je peux voir l’appel. Cela n’éclate aucune préoccupation éthique potentielle de l’origine des données de formation, donc je vous demanderais toujours d’être diligent avec ces outils. Mais je sais que pointer une photo et dire « Cela ne s’est jamais réellement passé » n’est pas une balle magique rhétorique.
Ce qui m’inquiète, c’est à quel point les nouvelles fonctionnalités d’IA de Google sont implémentées avec désinvolture, comme si elles étaient identiques à la photographie de calcul traditionnelle, qui utilise toujours votre image réelle comme base, plutôt que de faire des trucs. En tant que personne qui se méfie toujours de l’IA, voir la génération d’images de l’IA déguisée en «100x zoom» lève immédiatement mes sonneries d’alarme. Tout le monde ne fait pas attention à ces outils comme je le fais, et il est raisonnable pour eux de s’attendre à ce que ces fonctionnalités fassent ce qu’ils disent sur l’étain, plutôt que d’introduire le risque d’hallucination.
En d’autres termes, les gens doivent savoir quand l’IA est utilisée sur leurs photos, afin qu’ils puissent être confiants lorsque leurs photos sont réalistes et quand elles ne le sont pas. Se référer à Zoom à l’aide d’un téléobjectif comme «5x zoom» et zoom qui superpose une AI sur un tas de pixels car «100x zoom» ne le fait pas, et la construction d’un éditeur de langage naturel dans votre application de photos qui ne vous dit pas clairement quand il utilise l’IA générative et quand ce n’est pas le cas.
Google est conscient de ce problème. Toutes les photos prises sur le Pixel 10 sont désormais livrées avec des informations d’identification de contenu C2PA intégrées, ce qui dira si l’IA a été utilisée dans les métadonnées de la photo. Mais à quand remonte la dernière fois que vous avez vérifié les métadonnées d’une photo? Des outils comme Ask to Edit sont clairement faits pour être infaillibles, et s’attendre à ce que les utilisateurs se frottent manuellement à travers chacune de leurs photos pour voir lesquelles ont été modifiées avec l’IA et lesquelles n’étaient pas réalistes, surtout si nous fabriquons des outils qui sont spécifiquement censés permettre aux utilisateurs de prendre moins de mesures avant d’obtenir leur photo finale.
Il est normal que quelqu’un s’attende à ce que l’IA soit utilisé lorsqu’il ouvrira l’application Gemini, mais l’incluant dans des outils précédemment non AI comme l’application Camera a besoin de plus de fanfare que des informations d’identification C2PA silencieuses et une vague phrase dans un communiqué de presse. La notification d’un utilisateur lorsqu’elle est sur le point d’utiliser l’IA devrait se produire avant de prendre sa photo, ou avant de réaliser son montage. Il ne devrait pas être discrètement marqué pour qu’ils puissent trouver plus tard, s’ils choisissent d’aller à la recherche.
D’autres outils photo d’IA, comme ceux d’Adobe, le font déjà, grâce à un simple filigrane appliqué à tout projet utilisant la génération d’IA. Bien que je ne vous dise pas quoi penser des images générées par l’IA dans l’ensemble, je dirai que vous ne devriez pas être mis dans une position où vous en faites une par accident. Des innovations sur les caméras AI de Google, je dirais que Camera Coach est le seul à faire cela. Pour un nouveau lancement du Créateur d’Android, un écosystème Google a fièrement présenté « Open » lors de cette année, un taux de réussite sur trois sur trois n’est pas ce à quoi je m’attendais.
