le-pixel-4-de-google-la-nouvelle-référence
Le journaliste , du New York Times nous explique pourquoi il croit que le futur Pixel 4 de Google pourrait devenir la nouvelle référence dans le monde toujours en évolution des téléphones intelligents. Voici ce qu’il nous dit.

Le Pixel 4 de Google

Il n’y a pas si longtemps, des géants de la technologie comme Apple et Samsung s’extasiaient devant le nombre de mégapixels qu’ils entassaient dans les appareils photo des smartphones pour rendre les photos plus claires.
De nos jours, tous les fabricants de téléphones portables se concentrent sur les algorithmes, l’intelligence artificielle et des capteurs spéciaux qui travaillent ensemble pour rendre les photos plus impressionnantes. Ce que cela signifie : les téléphones travaillent d’arrache-pied pour rendre les photos plus belles, avec un minimum d’effort de la part de l’utilisateur.
Mardi, Google a montré sa dernière tentative pour rendre les caméras plus intelligentes. Il a dévoilé les Pixel 4 et Pixel 4 XL, des nouvelles versions de son populaire smartphone, qui existe en deux tailles d’écran.
Bien que ces appareils comprennent de nouvelles caractéristiques matérielles – comme un objectif supplémentaire et un scanner infrarouge pour déverrouiller le téléphone – Google a mis l’accent sur l’utilisation de ce que l’on appelle la photographie par ordinateur, qui traite automatiquement les images pour avoir l’air plus professionnel.

De nouvelles fonctionnalités

Parmi les nouvelles fonctionnalités du Pixel 4 il y a un mode pour la prise de vue du ciel nocturne et la capture d’images d’étoiles. Et en ajoutant un objectif supplémentaire, Google a augmenté une fonction logicielle appelée « Super Res Zoom », qui permet aux utilisateurs de zoomer de plus près sur les images sans perdre beaucoup de détails.
Apple a également mis l’accent sur la photographie numérique le mois dernier lorsqu’elle a dévoilé trois nouveaux iPhones. Une fonctionnalité à venir, la « Deep Fusion », traitera les images avec un niveau de détail extrême. La vue d’ensemble ? Lorsque vous prenez une photo numérique, vous ne prenez plus de photos.
« La plupart des photos que vous prenez de nos jours ne sont pas des photos où vous cliquez et obtenez une seule photo », a déclaré Ren Ng, un professeur d’informatique à l’Université de Californie, Berkeley. « De nos jours, il prend une rafale d’images et calcule toutes ces données dans une photographie finale. »
La photographie numérique existe depuis des années. L’une des premières formes était le HDR, pour une plage dynamique élevée, qui consistait à prendre une rafale de photos à différentes expositions et à mélanger les meilleures parties d’entre elles pour obtenir une image optimale.
L’an dernier, Google a lancé le « Night Sight », qui permettait de prendre des photos dans des conditions de faible luminosité comme si elles avaient été prises dans des conditions normales, et ce, sans flash. Cette technique permet de prendre un grand nombre de photos avec de courtes expositions et de les réassembler en une image.

Le mode ciel nocturne

Avec le Pixel 4, Google applique une technique similaire pour les photos de ciels nocturnes. Pour les photos d’astronomie, l’appareil détecte lorsqu’il fait très sombre et prend une rafale d’images à des expositions extra-longues pour capturer plus de lumière. Le résultat est une tâche qui ne pouvait auparavant être accomplie qu’avec des appareils photo avec des capteurs plein format ou APS-C, dotés d’objectifs encombrants, selon Google.
Les nouveaux iPhones d’Apple ont également introduit un mode de prise de vue en basse lumière, utilisant une méthode similaire. Une fois que l’appareil détecte qu’une scène est très sombre, il capture automatiquement plusieurs images et les fusionne ensemble tout en ajustant les couleurs et le contraste.

Le mode portrait

Il y a quelques années, des fabricants de téléphones comme Apple, Samsung et Huawei ont introduit des appareils photo qui produisaient un mode portrait, aussi connu sous le nom d’effet « bokeh », qui affûtait un sujet au premier plan et brouillait le fond. La plupart des fabricants de téléphones ont utilisé deux objectifs qui travaillaient ensemble pour créer cet effet.
Il y a deux ans, avec le Pixel 2, Google a réalisé le même effet avec un seul objectif. Sa méthode reposait en grande partie sur l’apprentissage automatique – les ordinateurs analysant des millions d’images pour reconnaître ce qui est important dans une photo. Le Pixel fait ensuite fait des prédictions sur les parties de la photo qui doivent rester nettes et a créé un masque autour de celles-ci. Un capteur spécial à l’intérieur de l’appareil, appelé « autofocus double pixel », a permis d’analyser la distance entre les objets et l’appareil pour rendre un flou plus réaliste.
Avec le Pixel 4, Google explique, qu’il a amélioré la capacité de l’appareil photo en mode portrait. Le nouvel objectif permet à l’appareil de capturer plus d’informations sur la profondeur, ce qui permet à l’appareil de prendre des objets en mode portrait à de plus grandes distances.

Le mode Super Res Zoom

Dans le passé, le zoom avant avec les appareils photo numériques était pratiquement tabou parce que l’image devenait inévitablement très pixélisée et que le moindre mouvement de la main créait du flou. Google a utilisé un logiciel pour résoudre ce problème l’année dernière dans le Pixel 3 avec ce qu’il appelle le « Super Res Zoom ».
Cette technique profite des tremblements naturels de la main pour capturer une rafale de photos dans différentes positions. En combinant chacune des photos légèrement différentes, le logiciel de l’appareil photo compose une photo qui remplit des détails qui n’auraient pas été obtenus avec un zoom numérique normal.

Une vidéo modifiée après la prise

La photographie numérique est tout un domaine d’études en informatique. M. Ng, professeur à Berkeley, qui donne des cours sur ce sujet a dit que lui et ses élèves faisaient des recherches sur de nouvelles techniques comme la capacité d’appliquer des effets en mode portrait aux vidéos. Disons, par exemple, que deux personnes dans une vidéo ont une conversation et que vous voulez que la caméra se concentre automatiquement sur la personne qui parle.
Une caméra vidéo ne peut généralement pas savoir comment le faire parce qu’elle ne peut pas prédire votre intention. Mais en photographie numérique, un appareil photo pourrait enregistrer toutes les séquences, utiliser l’intelligence artificielle pour déterminer quelle personne parle et appliquer les effets de l’autofocus après coup. La vidéo que vous verriez déplacerait l’attention entre deux personnes pendant qu’elles s’expriment à tour de rôle.
« Il s’agit là d’exemples de capacités complètement nouvelles et émergentes dans le domaine de la recherche qui pourraient changer complètement ce que nous pensions de ce qui était possible », a déclaré le Dr Ng.
Conclusion
Alors le Pixel 4 de Google; la nouvelle référence dans le monde des smartphones? Il n’y a que le temps et plusieurs tests qui pourront nous le dire.
Source : The New York Times
Crédit photo : Pixabay