Google compare son Pixel 3 à l'iPhone XS en photo nocturne

Florian Innocente |
Google compare son Pixel 3 à l

Partagée sur Twitter par un responsable produit marketing de Google, ce visuel compare une prise de vue de nuit sur un "Phone X" (qui se trouve être un iPhone XS, comme écrit en petit) et la même scène avec le mode Night Sight des Pixel 3 (lire aussi Un Pixel 3 XL entre les mains d'un utilisateur d'iPhone & Les Pixel 3 repoussent les limites de la photographie informatisée).

Chez Apple, le sujet est plongé dans le noir et le décor coloré en arrière plan restitué dans l'ambiance nocturne. Chez Google, le sujet est parfaitement visible et le fond très éclairé, peut-être un poil trop. Sans la personne dans le champ, la photo sur iPhone aurait pu se défendre face à celle de Google qui tend vers un rendu artificiel. Mais avec le sujet en plein milieu, la photo du XS devient difficilement exploitable, même pour un banal partage. Ce comparatif est peut-être le prélude à une vaste campagne de la part de Google. Coïncidence, une promo de 200 € est en cours sur les Pixel 3, ici comme ici ou (Merci B.) et via 9to5Google.

avatar Splinter | 

C'est impressionnant mais pas du tout réaliste. Donc bon...

avatar zorwood | 

@Splinter

Je me suis fais exactement la même réflexion...

avatar romainB84 | 

@Splinter

C’est exactement ce que je me suis dit aussi!
Y’a une prouesse technique assez impressionnante pour générer une image pareil avec si peu de lumière mais qui malheurement ne correspond pas du tout à la réalité de l’instant (et qui du coup ne sert à rien)
Mais chapeau pour les développeurs qui ont pondu l’algorithme derrière parce que y’a du boulot !

avatar fte | 

@romainB84

"Mais chapeau pour les développeurs qui ont pondu l’algorithme derrière parce que y’a du boulot !"

Si c’est du deep learning, personne n’a pondu cet algorithme, il s’est pondu tout seul. C’est l’idée d’ailleurs.

avatar fanchig | 

@fte

Heu, le deep Learning, il faut quand même faire des choses. Tout ne se fait pas tout seul non plus!

avatar fte | 

@fanchig

"Heu, le deep Learning, il faut quand même faire des choses. Tout ne se fait pas tout seul non plus!"

Ai-je prétendu l’inverse ? Nope.

Mais ce n’est pas de la programmation d’algorithme.

avatar thebarty | 

@fte

"Ai-je prétendu l’inverse ? Nope."

Bah si: « il s’est pondu tout seul. C’est l’idée d’ailleurs. »

avatar fte | 

@thebarty

"Bah si: « il s’est pondu tout seul. C’est l’idée d’ailleurs. »"

Bah non.

Je n’ai pas dit qu’il ne fallait pas bosser. J’ai dit que cet algorithme là n’a pas été programmé.

Et c’est en effet l’idée. Les réseaux de neurones implémentent des algorithmes non programmés, et non programmables en tant que tels. L’IA ne dit pas vrai ou faux, elle dit peut-être avec plus ou moins de conviction. Donc on l’entraine jusqu’à ce que ses réponses correspondent à ce qu’on veut entendre. C’est très inefficace, mais ça fait des trucs qu’on ne sait pas coder.

avatar Bigdidou | 

@fte

« L’IA ne dit pas vrai ou faux, elle dit peut-être avec plus ou moins de conviction. Donc on l’entraine jusqu’à ce que ses réponses correspondent à ce qu’on veut entendre. C’est très inefficace, mais ça fait des trucs qu’on ne sait pas coder. »

Ce que tu expliques rejoint l’émotion.
Mais ça ne devrait jamais donner exactement le même traitement à chaque prise.
J’aimerais bien en savoir plus.
Est-ce que tu connais des ressources qui permettent de se renseigner à propos de cette IA que tu décrits pour un non informaticien ?

avatar fte | 

@Bigdidou

"Ce que tu expliques rejoint l’émotion.
Mais ça ne devrait jamais donner exactement le même traitement à chaque prise."

Anthropomorphisme. Ce n’est en rien de l’émotion.

Et en réalité, on est assez loin d’un neurone véritable. Ce sont des maths. Pas de la quantique ou (et) de la chimie.

Ainsi donc, avec très exactement la même entrée, on aura très exactement la même sortie. Après, deux prises de vue identiques à l’oeil ne sont jamais identiques bit à bit.

Au delà de ça, il peut y avoir des paramètrages modifiant le comportement de la chaîne de traitement.

"J’aimerais bien en savoir plus.
Est-ce que tu connais des ressources qui permettent de se renseigner à propos de cette IA que tu décrits pour un non informaticien ?"

Deep learning pour les nuls... je ne sais pas. Je vais regarder. Mon intérêt est théorique, je n’en ai pour le moment pas d’usage pratique. Du coup je n’ai pas d’emblée de pointeurs vers des "hello world" pour débuter avec des exemples simples. Va jeter un coup d’oeil sur le matos éducatif sur TensorFlow, il y a peut-être des infos accessibles. Reconnaissance de formes probablement.

avatar Bigdidou | 

@fte

« Ce n’est en rien de l’émotion. »

Si, si le processus que tu décris est ce qui pourrait se rapprocher le plus de l’émotion.
Après, il faut comprendre exactement ce que tu décris (c’est pour ça que j’aimerais des compléments d’information) et savoir ce qu’est une émotion et quels en sont les processus neurophysiologiques (ça, je sais).

« Anthropomorphisme »
Je ne comprends pas très bien cette remarque.
Les émotions concernent tout animal présentant un cerveau méso-limbique ou son équivalent.
Quand Darwin parle d’émotion chez une grenouille, c’est de l’anthropomorphisme ?

« Ce sont des maths. Pas de la quantique »
C’est juste:est ce que j’aimerais mieux comprendre à mon niveau de total béotien en la matière, parce que j’avais plutôt (mal) compris un processus quantique, pour le coup.

« et) de la chimie. »
Les émotions, c’est de l’électricité. La chimie n’en est qu’un médiateur.
Expérimentalement, je ne crée par une émotion dans ton cerveau avec de chimie, mais par une impulsion électrique.

« Au delà de ça, il peut y avoir des paramètrages modifiant le comportement de la chaîne de traitement. »
Si le paramétrage est défini à partir de données environnementales et peut être complexe, ça rejoint un processus émotionnel.

avatar baklawa | 

@Bigdidou

Tu trouveras ci dessous un lien vers un excellent épisode du RDV tech sur le sujet histoire de comprendre de quoi on parle de façon très générale

http://frenchspin.fr/2017/07/le-rdv-tech-217-special-machine-learning-et...

Ensuite, à condition d'avoir le bagage mathématique suffisant, on trouve des cours gratuits sur le sujet, ici un cours du MIT mais en Anglais

https://www.class-central.com/course/independent-6-s191-introduction-to-...

My 2 cents

avatar Bigdidou | 

@baklawa

Merci beaucoup, le premier lien semble exactement ce que je cherchais. Il a l’air passionnant.
Les commentaires revoient également sur un podcast qui traite du sujet émotions et IA.
Je vais me régaler ;)

avatar hawker | 

@ fte

qu'est ce qu'il faut pas lire comme conneries...

avatar fte | 

@hawker

Dommage, tu viens de manquer une opportunité d’en avoir une de moins.

avatar sachouba | 

@fte

Sauf que le computational photography de Google, ce n'est pas que du deep learning du tout, loin de là !
Le deep learning n'est là que pour assister des traitements mathématiques très poussés.

Pour rappel, Google fait tout de même bouger la stabilisation optique dans un mouvement elliptique ou utilise les tremblements de la main pour augmenter le niveau de détail de ses photos zoomées, ce qui est loin d'être trivial.
Ils font aussi de la détection de premier plan via la parallaxe mesurée par l'autofocus à détection de phase, et améliorent le résultat par machine learning.
Et leur HDR+ consiste à aligner une dizaine d'images exposées différemment avec une précision inférieure à la taille d'un pixel, puis un filtre de Wiener modifié pour fusionner les images et une série d'étapes de post-processing : "black-level subtraction, white balancing, demosaicking with simplified gradient correction, bilinear chroma denoising, sRGB color correction, tone mapping, gamma correction, global contrast adjustment and unsharp mask sharpening[...], aberration correction, dehazing and dithering."
http://timothybrooks.com/tech/hdr-plus/

Pas mal, pour des gens qui ne codent pas.

Il ne faut pas non plus croire que le deep learning, c'est trivial. Ce sont des maths pures, et les algorithmes de deep learning ainsi que leur implémentation ne tombent pas du ciel.

avatar fte | 

@sachouba

"Pas mal, pour des gens qui ne codent pas."

Intéressant commentaire, mais sans rapport avec ce que je disais. En particulier, je ne disais pas ce que tu dis ci-dessus.

"Il ne faut pas non plus croire que le deep learning, c'est trivial. Ce sont des maths pures, et les algorithmes de deep learning ainsi que leur implémentation ne tombent pas du ciel."

Les implémentations ne tombent pas du ciel, naturellement. Des gens ont codé les algorithmes qui implémentent le deep learning (ou autres variantes de machine learning). Ce que je disais, c’est que l’algorithme que le réseau de deep learning implémente n’a pas été codé, le réseau a été entraîné jusqu’à produire le résultat recherché.

Ça serait bien de ne pas déformer les propos en passant de algorithme pas codé à gros tas de branleurs. Il y a une petite nuance.

avatar Marco787 | 

La photo de l'iPhone n'est pas très réaliste : une personne sur place verrait le personnage en premier plan. Ici, tout est très (trop) sombre et l'on ne voit presque rien.

Cela arrive aussi même en plein jour. J'ai pris des photos l'été et les plans qui ne sont pas directement éclairés par le soleil, mais très visibles, apparaissent bien plus sombres qu'en vrai...

avatar ForzaDesmo | 

Ni l'un ni l'autre.
L'idéal de trouve entre les 2.
Donc Google autant qu'Apple ont encore du travail à faire.
Vive la Post-Prod ?

avatar Alberto8 | 

@Splinter

Pour une fois qu’il crée quelque chose par eux-mêmes, il faut bien s’en vanter hein ?

avatar LaFotografffe | 

Bonjour,

PdV Phone X réaliste, un peu de contraste et de luminosité ferais mieux…
PdV Pixel 3 irréaliste manque de naturel…

Pas d’exemple à montrer car je n’ai pas réservée mais j’ai un iPhone SE autant dire pas tout récent mais mise à jour ok 12.1.3.
Il suffit d’à peine toucher la partie à sélectionner (se serait en l’occurence le personnage) un cadre jaune se positionne, la sélection Netteté Ambiance générale s’automatisent à partir de cette partie précisément. Zoom possible.
Selon ce que l’on veut obtenir, effet sombre (Phone X) ou plus claire (Pixel 3) il faut désactiver le Flash ou non?

C’est un bon compromis modifiable par la suite directement sur l’iPhone avec Photos.app ou avec un logiciel photo pour moi c’est Affinity Photo.app, directement depuis mon iPhone.

Amicalement> LaFotografffe ?

avatar Moumou92 | 

Qui fait vraiment ce genre de photos avec un téléphone? Personne... ils feraient mieux de se concentrer sur des fonctions utiles (un OS SIMPLE) plutot que sur des fonctions inutiles (un appareil photo inutilisable...).

avatar Ramlec | 

@Moumou92

« Qui fait vraiment ce genre de photos avec un téléphone? Personne... »
Mais vous êtes tellement loin de la réalité.

avatar comboss | 

@Moumou92

Ben plein de monde en fait mdrrrr

avatar Moumou92 | 

@comboss

Je vous met au défi de m’envoyer une photo aussi travaillée, avec cette qualité de composition et d’image, avec un téléphone...

La vérité c’est que la plupart des gens ne sont pas formés à la photographie... la vérité c’est que la plupart des gens font des images mal composées, mal exposée et surtout sans intérêt (le chat, ou la Tour Eiffel déjà photographié de la même façon des millions de fois). Ce type d’outil n’est pas au point, et même si il l’était il ne servirait à rien... il faut avant tout former les gens à la photographie...

avatar SebKyz | 

@Moumou92

Je suis d’accord avec toi mais dis toi que les gens qui n’en ont rien à faire de la photo et ceux qui ne savent pas du tout composer une photo et bah ces appareils inclus dans leur joli téléphone vont leur simplifier la vie et leur permettre de faire de jolie photos inespérées avant.
Même si c’est moche pour nous, pour eux ce sera assez pour les partager à leur famille et amis.
Pour en revenir à la photo c’est vrai que ce n’est pas du tout réaliste, je me demande ce qu’en pense les photographes pro.

avatar pagaupa | 

@SebKyz

J’en pense que photoshop mal utilisé peut faire autant de ravages que ce que font ces constructeurs de smartphones.
Donnez une photo smartphone à un imprimeur et vous verrez sa réaction...

avatar Moumou92 | 

@SebKyz

"ceux qui ne savent pas du tout composer une photo et bah ces appareils inclus dans leur joli téléphone vont leur simplifier la vie et leur permettre de faire de jolie photos inespérées avant. "

Je ne suis pas d’accord avec cette assertion... je vais l’illustrer par un autre exemple: il ne suffit pas d’avoir une batterie de cuisine pro (casserole en cuivre, piano dernier cri...) pour faire de la grande cuisine... un cuisinier non formé fera les mêmes plats immondes dans dans une cuisine ordinaire ou dans une cuisine de grand chef...

avatar macam | 

@moumou :
Justement le Pixel 3 n'est pas destiné aux photographes professionnels, mais comme le dit sebkyz aux amateurs qui n'y connaissent rien : ça les aide à avoir de belles photos de nuit sans se prendre la tête.
Pour reprendre ta comparaison avec les ustensiles de cuisine, ça serait plutôt à comparer à une machine à faire le pain.

Sinon je pense que Google a triché sur ces photos : déjà ils ont très certainement retravaillé les photos sur un logiciel, en mettant le paquet sur la photo du Pixel 3 et, au contraire, en flinguant celle de l'iPhone Xs. J'ai un X, moins performant que le Xs, et je peux dire que la photo brute serait bien plus lumineuse, avant un quelconque travail de retouche photo avec un logiciel derrière.
De toute façon ça sent le fake à plein tube : le mannequin a strictement la même posture sur les deux photos : elle a été ajoutée à la photo initiale.

avatar marenostrum | 

normalement on place les deux appareils sur le même trépied et on utilise le minuteur pour réaliser la même pose (ou en appuyant en même temps sur les deux). et puis pour ne pas avoir des soucis juridiques on triche pas. on réalise tout ça sous un oeil tierce. comme pour le Loto.

avatar macam | 

Tu es bien naïf : c'est pas comme si c'était la première fois qu'on avait affaire à des manipulations dans ce domaine.
Déjà que la réglementation américaine est laxiste en matière de comparatifs publicitaires, mais en plus ici c'est un Tweet : autant te dire qu'ils ne se sont pas embarrassés d'un huissier.

avatar macam | 

J'ajoute que pour obtenir une telle photo avec le Xs ils ont vraiment fait preuve de mauvaise volonté : il est clair qu'ils ont rendu la photo beaucoup plus sombre qu'elle ne l'était initialement avec un logiciel de traitement d'image ; ils ont désactivé le flash automatique qui est le réglage par défaut.
Et j'ajoute qu'on peut très sensiblement augmenter la luminosité de la photo de manière très simple directement depuis l'application Photos sur l'iPhone.

avatar JOHN³ | 

@macam

Lol... le fake évidement... possesseur du pixel 2 je peux te dire que le mode nuit fais des ravages, à tous les sens du terme. Rien de retouché ici.

avatar macam | 

Je parle de l'iphone pour la photo biaisée, pas du pixel (mais je veux bien convenir que mon histoire de mannequin rajoutée est tirée par les cheveux).

avatar JOHN³ | 

@macam

Quant à l’iPhone X, j’en possède un, c’est de la merde en basse luminosité, la mise au point ici est faite pour ne pas surexposé les néons... de toute façon quoi qu’on fasse avec un X en basse lumière ça ne peut qu’être raté

avatar macam | 

Je doute que tu aies un X vu les bêtises que tu alignes.

avatar JOHN³ | 

@macam

Et si j’en ai un
Mais c’est pas parce qu’on a un iPhone X qu’on est forcément convaincu

avatar fte | 

@macam

"Justement le Pixel 3 n'est pas destiné aux photographes professionnels"

Pourquoi ne pas laisser les professionnels choisir leurs outils ?

avatar macam | 

@fte :
Ma remarque s'inscrivait dans le débat entre sebkyz et moumou.
Je serais bien le dernier à donner des leçons aux photographes professionnels, n'ayant aucune compétence dans ce domaine.

avatar poulroudou | 

@Moumou92

Désolé, mais on peut faire de belles photos avec un smartphone. Plus bas, l'URL d'une émission "On refait le Mac" de 2011 avec l'interview du photographe Youri Lenquette sur ce sujet.

C'était du temps de l'iPhone 5S...

http://www.onrefaitlemac.com/episode/orlm-144-liphone-5s-lappareil-photo...

avatar fte | 

@Moumou92

"il faut avant tout former les gens à la photographie..."

Il faudrait aussi former les gens à internet. Certains n’obtiendraient pas leur permis de poster...

avatar byte_order | 

@Moumou92

Je vous paraphrase :

Je vous met au défi de m’envoyer un traitement informatisé aussi travaillé, avec cette qualité de précision, avec un ordinateur personnel.

La vérité c’est que la plupart des gens ne sont pas formés à l'informatique... la vérité c’est que la plupart des gens font des traitements informatisés mal conçus, mal implémentés et surtout sans intérêt (la calculatrice ou le jeu du pendu programmé de la même façon des millions de fois). Ce type d’outil n’est pas au point, et même si il l’était il ne servirait à rien... il faut avant tout former les gens à la programmation...

----

C'est assez marrant de lire votre commentaire, alors que tout le succès d'Apple repose sur rendre l'outil informatique accessible aux gens sans qu'ils ne doivent préalablement se former à des tonnes de pratiques pointues pour pouvoir en tirer parti de manière intéressante.

Je pense sincèrement qu'il y a dans ce monde plus de consommateurs intéressés à pouvoir prendre des photos exploitables pour leur besoin dans leur vie, malgré des conditions difficiles de prise, que de consommateurs qui accepteront de se former en photographie en conditions difficiles. Suffit de jetter un oeil aux centaines de millions de selfies produits chaque année pour s'en convaincre.

Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez.

avatar Bigdidou | 

@byte_order

« Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez. »

Évidemment.
Surtout qu’en plus, j’ai compris qu’il est débrayable.
A partir de là, je ne vois pas trop quoi lui reprocher.
Au pire, on prend un cliché avec et sans.

Le traitement appliqué est par ailleurs impressionnant. Certes, la scène est choisie pour que ça le soit, mais la netteté et la clarté de la femme au centre est bluffante.

avatar Moumou92 | 

@byte_order

"Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez."

Aucun algorithme ne peut composer une image à votre place: l’équilibre d’une composition n’est pas automatisable... le traitement ok, c’est plus ou moins standardisable même si je trouve ça triste cette absence de parti pris, de choix artistique... mais admettons... par contre la composition n’est pas modifiable par algorithme... une photo mal pensée à l’origine le sera quelque soit le traitement numérique...

« Shit in, shit out » comme on dit chez moi...

Quand je parle de formation à la photographie, je parle plus de composition, de références et d’histoire de la photo que de technique qui est finalement assez simple si on y passe quelques heures...

avatar fte | 

@Moumou92

"l’équilibre d’une composition n’est pas automatisable..."

C’est faux. Les règles de composition existent, et elles existent pour une raison.

Elles existent parce que certaines compositions et proportions sont plus appréciées par une majorité d’observateurs, étudié et démontré dans des domaines visuels variés, de l’architecture à la photographie en passant par l’aquascaping d’aquariums.

Elles existent parce que nous, humains, sommes physiologiquement câblés pour apprécier certaines proportions, dont l’une des plus célèbres est présente partout dans la géométrie de la nature vivante.

Bref. C’est automatisable.

Même sans cela ça serait automatisable. Il suffirait de collecter assez de like sur une base de données de photos géante, et d’entraîner des réseaux de neurones à liker de la même manière.

avatar Moumou92 | 

@fte

C’est automatisable sans soucis si tu montes l’iPhone sur pied motorisé... sinon jusqu’à preuve du contraire c’est l’utilisateur qui cadre... et lui a besoin d’être nourri de ces règles et doit faire sa culture photographique...

En fait tu proposes juste d’éduquer une IA à la photo à la place de l’utilisateur... dans tous les cas il faut une éducation photographique...

avatar fte | 

@Moumou92

"C’est automatisable sans soucis si tu montes l’iPhone sur pied motorisé..."

Grand angle, fish-eye même, un de chaque côté, et pas besoin de moteur. Tu manques de connaissances photo. Ou d’imagination.

Entrainer une IA sur les photos FB, tu appelles ça de l’éducation photographique ? Mazette.

avatar Moumou92 | 

@fte

"Entrainer une IA sur les photos FB, tu appelles ça de l’éducation photographique ? Mazette."

Tu m’expliqueras à quel moment j’ai écris ça...

avatar baklawa | 

.

Pages

CONNEXION UTILISATEUR