HyperAIHyperAI

Command Palette

Search for a command to run...

Le Pixel 10 Pro affronte un vrai téléobjectif : l’IA de zoom fait-elle mieux que 3000 mm d’optique ?

Le Pixel 10 Pro intègre une fonction de zoom jusqu’à 100x fondée sur l’intelligence artificielle générative, une innovation qui suscite à la fois fascination et scepticisme. Contrairement aux zooms optiques, comme celui du Nikon Coolpix P1100 — un appareil ultrazoom avec un équivalent 24-3000 mm —, le Pixel ne dispose pas de lentilles capables de capturer des détails à distance sans interpolation. Son zoom numérique doit donc combler des lacunes en « devinant » les pixels manquants, ce que l’IA fait en s’appuyant sur des modèles d’apprentissage profond. Pour évaluer sa performance, des comparaisons directes ont été réalisées avec le P1100, qui capte des images réelles sans nécessiter de reconstruction. Les premiers essais sur la Lune révèlent des limites : sans traitement IA, l’image du Pixel 10 Pro est floue et granuleuse, mais même avec l’IA, le résultat présente une texture « épongeuse » peu naturelle, contrairement à la clarté et aux détails réels du P1100. Sur des cibles terrestres comme l’extérieur du stade Lumen Field, située à un mile de distance, l’IA parvient à rendre les chiffres des panneaux lisibles et à lisser les contours, mais elle supprime parfois des textures réelles — comme les plaques métalliques — ou déforme les écritures. Dans une autre série, prise depuis le même point sur Starbucks, l’IA transforme des lampes en fenêtres et déforme le cadran d’une horloge, donnant une apparence surréaliste, presque digne de Salvador Dalí. À trois miles du Space Needle, la chaleur atmosphérique crée des ondes de chaleur qui déforment l’image. Le P1100, malgré sa qualité optique, peine à compenser ces distorsions. Le Pixel 10 Pro, lui, tente de corriger ces effets grâce à l’IA, produisant une image plus cohérente, bien que toujours approximative. Dans ce cas précis, l’IA s’avère peut-être même indispensable, car les outils traditionnels de correction ne peuvent pas traiter ces perturbations complexes. L’usage de l’IA générative directement dans l’application photo, plutôt que dans un logiciel post-traitement, marque une avancée significative. Cela permet une correction en temps réel, mais aussi des erreurs inattendues : l’IA ne « sait » pas ce qu’un objet doit réellement ressembler à distance, et elle peut créer des détails fictifs. Pourtant, ce système ouvre des perspectives inédites, notamment pour des situations où les conditions d’imagerie sont extrêmes — brume, chaleur, faible luminosité. Les photographes professionnels utilisent déjà des outils d’IA pour nettoyer les images anciennes ou corriger les bruits, mais l’intégration de ces algorithmes au moment de la prise de vue représente une rupture. En somme, le zoom IA du Pixel 10 Pro n’est pas une solution parfaite, mais il démontre un potentiel réel, surtout dans des cas où les techniques classiques échouent. Bien qu’il puisse produire des résultats trompeurs ou fantaisistes, il révèle une évolution majeure : l’IA ne se contente plus de retoucher des photos, elle participe désormais à la création d’images, au moment même où elles sont capturées. Cela ouvre la voie à une nouvelle ère de la photographie, où la frontière entre réalité et reconstruction devient de plus en plus floue.

Liens associés

Le Pixel 10 Pro affronte un vrai téléobjectif : l’IA de zoom fait-elle mieux que 3000 mm d’optique ? | Articles tendance | HyperAI