Comment votre téléphone a appris à voir dans le noir
Ouvrez Instagram à tout moment et il ne vous faudra probablement pas longtemps pour trouver des photos nettes du ciel nocturne, d’une ligne d’horizon après la tombée de la nuit ou d’un restaurant faiblement éclairé. Alors que des prises de vue comme celles-ci nécessitaient auparavant des appareils photo avancés, elles sont désormais souvent possibles à partir du téléphone que vous transportez déjà dans votre poche.
Des entreprises technologiques telles qu’Apple, Samsung et Google investissent des ressources pour améliorer leurs options de photographie de nuit à un moment où les fonctionnalités de l’appareil photo sont de plus en plus devenues un argument de vente clé pour les smartphones qui, autrement, se ressemblent tous d’une année à l’autre.
Plus tôt ce mois-ci, Google a apporté une version plus rapide de son mode Night Sight, qui utilise des algorithmes d’intelligence artificielle pour éclaircir ou éclaircir les images dans des environnements sombres, à plusieurs de ses modèles Pixel. Le mode nuit d’Apple, qui est disponible sur des modèles aussi anciens que l’iPhone 11, a été présenté comme une fonctionnalité de premier plan sur sa gamme d’iPhone 14 l’année dernière grâce à son système de caméra amélioré.
Ces outils ont parcouru un long chemin au cours des dernières années seulement, grâce aux avancées significatives de la technologie de l’intelligence artificielle ainsi qu’au traitement d’image qui est devenu plus net, plus rapide et plus résistant aux situations photographiques difficiles. Et les fabricants de smartphones n’en ont pas encore fini.
« Les gens comptent de plus en plus sur leurs smartphones pour prendre des photos, enregistrer des vidéos et créer du contenu », a déclaré Lian Jye Su, analyste en intelligence artificielle chez ABI Research. « [This] ne fera qu’inciter les fabricants de smartphones à améliorer leurs jeux dans le traitement d’images et de vidéos amélioré par l’IA. »
Bien que l’accent ait été mis récemment sur la nouvelle course aux armements de l’IA de la Silicon Valley contre les chatbots, la volonté de développer des outils d’IA plus sophistiqués pourrait également aider à améliorer encore la photographie de nuit et à rapprocher nos smartphones de la capacité de voir dans l’obscurité.
COMMENT ÇA FONCTIONNE
La fonction de mode nuit de Samsung, disponible sur divers modèles Galaxy mais optimisée pour son smartphone haut de gamme S23 Ultra, promet de faire ce qui aurait semblé impensable il y a à peine cinq à dix ans : permettre aux téléphones de prendre des photos plus claires avec peu de lumière.
La fonctionnalité est conçue pour minimiser ce qu’on appelle le « bruit », un terme en photographie qui fait généralement référence à de mauvaises conditions d’éclairage, à de longs temps d’exposition et à d’autres éléments qui peuvent nuire à la qualité d’une image.
Le secret de la réduction du bruit, selon la société, est une combinaison du capteur adaptatif de 200 millions de pixels du S23 Ultra. Après avoir appuyé sur le déclencheur, Samsung utilise un traitement multi-images avancé pour combiner plusieurs images en une seule image et l’IA pour ajuster automatiquement la photo si nécessaire.
« Lorsqu’un utilisateur prend une photo dans des conditions d’éclairage faible ou sombre, le processeur aide à éliminer le bruit grâce au traitement multi-images », a déclaré Joshua Cho, vice-président exécutif de l’équipe de solutions visuelles de Samsung. « Instantanément, le Galaxy S23 Ultra détecte le détail à conserver et le bruit à supprimer. »
Pour Samsung et d’autres entreprises technologiques, les algorithmes d’IA sont essentiels pour fournir des photos prises dans l’obscurité. « Le processus de formation à l’IA est basé sur un grand nombre d’images ajustées et annotées par des experts, et l’IA apprend les paramètres à ajuster pour chaque photo prise dans des situations de faible luminosité », a expliqué Su.
Par exemple, les algorithmes identifient le bon niveau d’exposition, déterminent la palette de couleurs et le dégradé corrects dans certaines conditions d’éclairage, accentuent artificiellement les visages ou les objets flous, puis effectuent ces modifications. Le résultat final, cependant, peut être très différent de ce que la personne qui prend la photo a vu en temps réel, dans ce que certains pourraient considérer comme un tour de passe-passe technique.
Google se concentre également sur la réduction du bruit dans la photographie. Sa fonction Night Sight alimentée par l’IA capture une rafale d’images à exposition plus longue. Il utilise ensuite quelque chose appelé HDR+ Bracketing, qui crée plusieurs photos avec différents paramètres. Une fois la photo prise, les images sont combinées pour créer des « photos plus nettes », même dans des environnements sombres, « qui sont toujours incroyablement lumineuses et détaillées », a déclaré Alex Schiffhauer, chef de produit chez Google.
Bien qu’efficace, il peut y avoir un léger mais notable délai avant que l’image ne soit prête. Mais Schiffhauer a déclaré que Google avait l’intention d’accélérer davantage ce processus sur les futures itérations de Pixel. « Nous aimerions un monde dans lequel les clients peuvent obtenir la qualité de Night Sight sans avoir besoin de rester immobiles pendant quelques secondes », a déclaré Schiffhauer.
Google dispose également d’une fonction d’astrophotographie qui permet aux utilisateurs de prendre des photos du ciel nocturne sans avoir à modifier l’exposition ou d’autres paramètres. Les algorithmes détectent les détails dans le ciel et les améliorent pour se démarquer, selon la société.
On dit depuis longtemps qu’Apple travaille sur une fonction d’astrophotographie, mais certains utilisateurs d’iPhone 14 Pro Max ont réussi à capturer des images du ciel grâce à son outil de mode nuit existant. Lorsqu’un appareil détecte un environnement peu éclairé, le mode nuit s’active pour capturer les détails et éclaircir les prises de vue. (La société n’a pas répondu à une demande de précisions sur le fonctionnement des algorithmes.)
L’IA peut faire une différence dans l’image, mais les résultats finaux pour chacune de ces fonctionnalités dépendent également des objectifs du téléphone, a déclaré Bill Ray, analyste chez Gartner. Un appareil photo traditionnel aura l’objectif à plusieurs centimètres du capteur, mais l’espace limité sur un téléphone nécessite souvent de serrer les choses ensemble, ce qui peut entraîner une profondeur de champ plus faible et une qualité d’image réduite, en particulier dans les environnements plus sombres.
« La qualité de l’objectif est toujours un gros problème, et la façon dont le téléphone résout le manque de profondeur », a déclaré Ray.
LA PROCHAINE GRANDE CHOSE
Alors que la photographie de nuit sur les téléphones a parcouru un long chemin, une nouvelle technologie bourdonnante pourrait la faire avancer encore plus.
L’IA générative, la technologie qui alimente le chatbot viral ChatGPT, a attiré beaucoup d’attention pour sa capacité à créer des essais et des images convaincants en réponse aux invites de l’utilisateur. Mais ces systèmes d’IA, qui sont formés sur de vastes quantités de données en ligne, ont également le potentiel d’éditer et de traiter des images.
« Ces dernières années, les modèles d’IA génératifs ont également été utilisés dans des fonctions de retouche photo telles que la suppression ou le remplacement d’arrière-plan », a déclaré Su. Si cette technologie est ajoutée aux systèmes photo des smartphones, elle pourrait éventuellement rendre les modes nuit encore plus puissants, a déclaré Su.
Les grandes entreprises technologiques, y compris Google, adoptent déjà pleinement cette technologie dans d’autres parties de leur activité. Pendant ce temps, les fournisseurs de chipsets pour smartphones comme Qualcomm et MediaTek cherchent à prendre en charge des applications d’IA plus génératives de manière native sur les appareils grand public, a déclaré Su. Ceux-ci incluent l’augmentation d’image et de vidéo.
« Mais il reste encore environ deux à trois ans avant que des versions limitées de cela n’apparaissent sur les smartphones », a-t-il déclaré.