Google compare son Pixel 3 à l'iPhone XS en photo nocturne

Florian Innocente |
Google compare son Pixel 3 à l

Partagée sur Twitter par un responsable produit marketing de Google, ce visuel compare une prise de vue de nuit sur un "Phone X" (qui se trouve être un iPhone XS, comme écrit en petit) et la même scène avec le mode Night Sight des Pixel 3 (lire aussi Un Pixel 3 XL entre les mains d'un utilisateur d'iPhone & Les Pixel 3 repoussent les limites de la photographie informatisée).

Chez Apple, le sujet est plongé dans le noir et le décor coloré en arrière plan restitué dans l'ambiance nocturne. Chez Google, le sujet est parfaitement visible et le fond très éclairé, peut-être un poil trop. Sans la personne dans le champ, la photo sur iPhone aurait pu se défendre face à celle de Google qui tend vers un rendu artificiel. Mais avec le sujet en plein milieu, la photo du XS devient difficilement exploitable, même pour un banal partage. Ce comparatif est peut-être le prélude à une vaste campagne de la part de Google. Coïncidence, une promo de 200 € est en cours sur les Pixel 3, ici comme ici ou (Merci B.) et via 9to5Google.

avatar Splinter | 

C'est impressionnant mais pas du tout réaliste. Donc bon...

avatar zorwood | 

@Splinter

Je me suis fais exactement la même réflexion...

avatar cecile_aelita | 

@Splinter

C’est exactement ce que je me suis dit aussi!
Y’a une prouesse technique assez impressionnante pour générer une image pareil avec si peu de lumière mais qui malheurement ne correspond pas du tout à la réalité de l’instant (et qui du coup ne sert à rien)
Mais chapeau pour les développeurs qui ont pondu l’algorithme derrière parce que y’a du boulot !

avatar fte | 

@romainB84

"Mais chapeau pour les développeurs qui ont pondu l’algorithme derrière parce que y’a du boulot !"

Si c’est du deep learning, personne n’a pondu cet algorithme, il s’est pondu tout seul. C’est l’idée d’ailleurs.

avatar fanchig | 

@fte

Heu, le deep Learning, il faut quand même faire des choses. Tout ne se fait pas tout seul non plus!

avatar fte | 

@fanchig

"Heu, le deep Learning, il faut quand même faire des choses. Tout ne se fait pas tout seul non plus!"

Ai-je prétendu l’inverse ? Nope.

Mais ce n’est pas de la programmation d’algorithme.

avatar thebarty | 

@fte

"Ai-je prétendu l’inverse ? Nope."

Bah si: « il s’est pondu tout seul. C’est l’idée d’ailleurs. »

avatar fte | 

@thebarty

"Bah si: « il s’est pondu tout seul. C’est l’idée d’ailleurs. »"

Bah non.

Je n’ai pas dit qu’il ne fallait pas bosser. J’ai dit que cet algorithme là n’a pas été programmé.

Et c’est en effet l’idée. Les réseaux de neurones implémentent des algorithmes non programmés, et non programmables en tant que tels. L’IA ne dit pas vrai ou faux, elle dit peut-être avec plus ou moins de conviction. Donc on l’entraine jusqu’à ce que ses réponses correspondent à ce qu’on veut entendre. C’est très inefficace, mais ça fait des trucs qu’on ne sait pas coder.

avatar Bigdidou | 

@fte

« L’IA ne dit pas vrai ou faux, elle dit peut-être avec plus ou moins de conviction. Donc on l’entraine jusqu’à ce que ses réponses correspondent à ce qu’on veut entendre. C’est très inefficace, mais ça fait des trucs qu’on ne sait pas coder. »

Ce que tu expliques rejoint l’émotion.
Mais ça ne devrait jamais donner exactement le même traitement à chaque prise.
J’aimerais bien en savoir plus.
Est-ce que tu connais des ressources qui permettent de se renseigner à propos de cette IA que tu décrits pour un non informaticien ?

avatar fte | 

@Bigdidou

"Ce que tu expliques rejoint l’émotion.
Mais ça ne devrait jamais donner exactement le même traitement à chaque prise."

Anthropomorphisme. Ce n’est en rien de l’émotion.

Et en réalité, on est assez loin d’un neurone véritable. Ce sont des maths. Pas de la quantique ou (et) de la chimie.

Ainsi donc, avec très exactement la même entrée, on aura très exactement la même sortie. Après, deux prises de vue identiques à l’oeil ne sont jamais identiques bit à bit.

Au delà de ça, il peut y avoir des paramètrages modifiant le comportement de la chaîne de traitement.

"J’aimerais bien en savoir plus.
Est-ce que tu connais des ressources qui permettent de se renseigner à propos de cette IA que tu décrits pour un non informaticien ?"

Deep learning pour les nuls... je ne sais pas. Je vais regarder. Mon intérêt est théorique, je n’en ai pour le moment pas d’usage pratique. Du coup je n’ai pas d’emblée de pointeurs vers des "hello world" pour débuter avec des exemples simples. Va jeter un coup d’oeil sur le matos éducatif sur TensorFlow, il y a peut-être des infos accessibles. Reconnaissance de formes probablement.

avatar Bigdidou | 

@fte

« Ce n’est en rien de l’émotion. »

Si, si le processus que tu décris est ce qui pourrait se rapprocher le plus de l’émotion.
Après, il faut comprendre exactement ce que tu décris (c’est pour ça que j’aimerais des compléments d’information) et savoir ce qu’est une émotion et quels en sont les processus neurophysiologiques (ça, je sais).

« Anthropomorphisme »
Je ne comprends pas très bien cette remarque.
Les émotions concernent tout animal présentant un cerveau méso-limbique ou son équivalent.
Quand Darwin parle d’émotion chez une grenouille, c’est de l’anthropomorphisme ?

« Ce sont des maths. Pas de la quantique »
C’est juste:est ce que j’aimerais mieux comprendre à mon niveau de total béotien en la matière, parce que j’avais plutôt (mal) compris un processus quantique, pour le coup.

« et) de la chimie. »
Les émotions, c’est de l’électricité. La chimie n’en est qu’un médiateur.
Expérimentalement, je ne crée par une émotion dans ton cerveau avec de chimie, mais par une impulsion électrique.

« Au delà de ça, il peut y avoir des paramètrages modifiant le comportement de la chaîne de traitement. »
Si le paramétrage est défini à partir de données environnementales et peut être complexe, ça rejoint un processus émotionnel.

avatar baklawa | 

@Bigdidou

Tu trouveras ci dessous un lien vers un excellent épisode du RDV tech sur le sujet histoire de comprendre de quoi on parle de façon très générale

http://frenchspin.fr/2017/07/le-rdv-tech-217-special-machine-learning-et-deep-learning/

Ensuite, à condition d'avoir le bagage mathématique suffisant, on trouve des cours gratuits sur le sujet, ici un cours du MIT mais en Anglais

https://www.class-central.com/course/independent-6-s191-introduction-to-deep-learning-8083

My 2 cents

avatar Bigdidou | 

@baklawa

Merci beaucoup, le premier lien semble exactement ce que je cherchais. Il a l’air passionnant.
Les commentaires revoient également sur un podcast qui traite du sujet émotions et IA.
Je vais me régaler ;)

avatar hawker | 

@ fte

qu'est ce qu'il faut pas lire comme conneries...

avatar fte | 

@hawker

Dommage, tu viens de manquer une opportunité d’en avoir une de moins.

avatar sachouba | 

@fte

Sauf que le computational photography de Google, ce n'est pas que du deep learning du tout, loin de là !
Le deep learning n'est là que pour assister des traitements mathématiques très poussés.

Pour rappel, Google fait tout de même bouger la stabilisation optique dans un mouvement elliptique ou utilise les tremblements de la main pour augmenter le niveau de détail de ses photos zoomées, ce qui est loin d'être trivial.
Ils font aussi de la détection de premier plan via la parallaxe mesurée par l'autofocus à détection de phase, et améliorent le résultat par machine learning.
Et leur HDR+ consiste à aligner une dizaine d'images exposées différemment avec une précision inférieure à la taille d'un pixel, puis un filtre de Wiener modifié pour fusionner les images et une série d'étapes de post-processing : "black-level subtraction, white balancing, demosaicking with simplified gradient correction, bilinear chroma denoising, sRGB color correction, tone mapping, gamma correction, global contrast adjustment and unsharp mask sharpening[...], aberration correction, dehazing and dithering."
http://timothybrooks.com/tech/hdr-plus/

Pas mal, pour des gens qui ne codent pas.

Il ne faut pas non plus croire que le deep learning, c'est trivial. Ce sont des maths pures, et les algorithmes de deep learning ainsi que leur implémentation ne tombent pas du ciel.

avatar fte | 

@sachouba

"Pas mal, pour des gens qui ne codent pas."

Intéressant commentaire, mais sans rapport avec ce que je disais. En particulier, je ne disais pas ce que tu dis ci-dessus.

"Il ne faut pas non plus croire que le deep learning, c'est trivial. Ce sont des maths pures, et les algorithmes de deep learning ainsi que leur implémentation ne tombent pas du ciel."

Les implémentations ne tombent pas du ciel, naturellement. Des gens ont codé les algorithmes qui implémentent le deep learning (ou autres variantes de machine learning). Ce que je disais, c’est que l’algorithme que le réseau de deep learning implémente n’a pas été codé, le réseau a été entraîné jusqu’à produire le résultat recherché.

Ça serait bien de ne pas déformer les propos en passant de algorithme pas codé à gros tas de branleurs. Il y a une petite nuance.

avatar Marco787 | 

La photo de l'iPhone n'est pas très réaliste : une personne sur place verrait le personnage en premier plan. Ici, tout est très (trop) sombre et l'on ne voit presque rien.

Cela arrive aussi même en plein jour. J'ai pris des photos l'été et les plans qui ne sont pas directement éclairés par le soleil, mais très visibles, apparaissent bien plus sombres qu'en vrai...

avatar ForzaDesmo | 

Ni l'un ni l'autre.
L'idéal de trouve entre les 2.
Donc Google autant qu'Apple ont encore du travail à faire.
Vive la Post-Prod ?

avatar Alberto8 | 

@Splinter

Pour une fois qu’il crée quelque chose par eux-mêmes, il faut bien s’en vanter hein ?

avatar LaFotografffe | 

Bonjour,

PdV Phone X réaliste, un peu de contraste et de luminosité ferais mieux…
PdV Pixel 3 irréaliste manque de naturel…

Pas d’exemple à montrer car je n’ai pas réservée mais j’ai un iPhone SE autant dire pas tout récent mais mise à jour ok 12.1.3.
Il suffit d’à peine toucher la partie à sélectionner (se serait en l’occurence le personnage) un cadre jaune se positionne, la sélection Netteté Ambiance générale s’automatisent à partir de cette partie précisément. Zoom possible.
Selon ce que l’on veut obtenir, effet sombre (Phone X) ou plus claire (Pixel 3) il faut désactiver le Flash ou non?

C’est un bon compromis modifiable par la suite directement sur l’iPhone avec Photos.app ou avec un logiciel photo pour moi c’est Affinity Photo.app, directement depuis mon iPhone.

Amicalement> LaFotografffe ?

avatar Moumou92 (non vérifié) | 

Qui fait vraiment ce genre de photos avec un téléphone? Personne... ils feraient mieux de se concentrer sur des fonctions utiles (un OS SIMPLE) plutot que sur des fonctions inutiles (un appareil photo inutilisable...).

avatar Ramlec | 

@Moumou92

« Qui fait vraiment ce genre de photos avec un téléphone? Personne... »
Mais vous êtes tellement loin de la réalité.

avatar comboss | 

@Moumou92

Ben plein de monde en fait mdrrrr

avatar Moumou92 (non vérifié) | 

@comboss

Je vous met au défi de m’envoyer une photo aussi travaillée, avec cette qualité de composition et d’image, avec un téléphone...

La vérité c’est que la plupart des gens ne sont pas formés à la photographie... la vérité c’est que la plupart des gens font des images mal composées, mal exposée et surtout sans intérêt (le chat, ou la Tour Eiffel déjà photographié de la même façon des millions de fois). Ce type d’outil n’est pas au point, et même si il l’était il ne servirait à rien... il faut avant tout former les gens à la photographie...

avatar SebKyz | 

@Moumou92

Je suis d’accord avec toi mais dis toi que les gens qui n’en ont rien à faire de la photo et ceux qui ne savent pas du tout composer une photo et bah ces appareils inclus dans leur joli téléphone vont leur simplifier la vie et leur permettre de faire de jolie photos inespérées avant.
Même si c’est moche pour nous, pour eux ce sera assez pour les partager à leur famille et amis.
Pour en revenir à la photo c’est vrai que ce n’est pas du tout réaliste, je me demande ce qu’en pense les photographes pro.

avatar pagaupa | 

@SebKyz

J’en pense que photoshop mal utilisé peut faire autant de ravages que ce que font ces constructeurs de smartphones.
Donnez une photo smartphone à un imprimeur et vous verrez sa réaction...

avatar Moumou92 (non vérifié) | 

@SebKyz

"ceux qui ne savent pas du tout composer une photo et bah ces appareils inclus dans leur joli téléphone vont leur simplifier la vie et leur permettre de faire de jolie photos inespérées avant. "

Je ne suis pas d’accord avec cette assertion... je vais l’illustrer par un autre exemple: il ne suffit pas d’avoir une batterie de cuisine pro (casserole en cuivre, piano dernier cri...) pour faire de la grande cuisine... un cuisinier non formé fera les mêmes plats immondes dans dans une cuisine ordinaire ou dans une cuisine de grand chef...

avatar macam | 

@moumou :
Justement le Pixel 3 n'est pas destiné aux photographes professionnels, mais comme le dit sebkyz aux amateurs qui n'y connaissent rien : ça les aide à avoir de belles photos de nuit sans se prendre la tête.
Pour reprendre ta comparaison avec les ustensiles de cuisine, ça serait plutôt à comparer à une machine à faire le pain.

Sinon je pense que Google a triché sur ces photos : déjà ils ont très certainement retravaillé les photos sur un logiciel, en mettant le paquet sur la photo du Pixel 3 et, au contraire, en flinguant celle de l'iPhone Xs. J'ai un X, moins performant que le Xs, et je peux dire que la photo brute serait bien plus lumineuse, avant un quelconque travail de retouche photo avec un logiciel derrière.
De toute façon ça sent le fake à plein tube : le mannequin a strictement la même posture sur les deux photos : elle a été ajoutée à la photo initiale.

avatar marenostrum | 

normalement on place les deux appareils sur le même trépied et on utilise le minuteur pour réaliser la même pose (ou en appuyant en même temps sur les deux). et puis pour ne pas avoir des soucis juridiques on triche pas. on réalise tout ça sous un oeil tierce. comme pour le Loto.

avatar macam | 

Tu es bien naïf : c'est pas comme si c'était la première fois qu'on avait affaire à des manipulations dans ce domaine.
Déjà que la réglementation américaine est laxiste en matière de comparatifs publicitaires, mais en plus ici c'est un Tweet : autant te dire qu'ils ne se sont pas embarrassés d'un huissier.

avatar macam | 

J'ajoute que pour obtenir une telle photo avec le Xs ils ont vraiment fait preuve de mauvaise volonté : il est clair qu'ils ont rendu la photo beaucoup plus sombre qu'elle ne l'était initialement avec un logiciel de traitement d'image ; ils ont désactivé le flash automatique qui est le réglage par défaut.
Et j'ajoute qu'on peut très sensiblement augmenter la luminosité de la photo de manière très simple directement depuis l'application Photos sur l'iPhone.

avatar JOHN³ | 

@macam

Lol... le fake évidement... possesseur du pixel 2 je peux te dire que le mode nuit fais des ravages, à tous les sens du terme. Rien de retouché ici.

avatar macam | 

Je parle de l'iphone pour la photo biaisée, pas du pixel (mais je veux bien convenir que mon histoire de mannequin rajoutée est tirée par les cheveux).

avatar JOHN³ | 

@macam

Quant à l’iPhone X, j’en possède un, c’est de la merde en basse luminosité, la mise au point ici est faite pour ne pas surexposé les néons... de toute façon quoi qu’on fasse avec un X en basse lumière ça ne peut qu’être raté

avatar macam | 

Je doute que tu aies un X vu les bêtises que tu alignes.

avatar JOHN³ | 

@macam

Et si j’en ai un
Mais c’est pas parce qu’on a un iPhone X qu’on est forcément convaincu

avatar fte | 

@macam

"Justement le Pixel 3 n'est pas destiné aux photographes professionnels"

Pourquoi ne pas laisser les professionnels choisir leurs outils ?

avatar macam | 

@fte :
Ma remarque s'inscrivait dans le débat entre sebkyz et moumou.
Je serais bien le dernier à donner des leçons aux photographes professionnels, n'ayant aucune compétence dans ce domaine.

avatar poulroudou | 

@Moumou92

Désolé, mais on peut faire de belles photos avec un smartphone. Plus bas, l'URL d'une émission "On refait le Mac" de 2011 avec l'interview du photographe Youri Lenquette sur ce sujet.

C'était du temps de l'iPhone 5S...

http://www.onrefaitlemac.com/episode/orlm-144-liphone-5s-lappareil-photo-killer

avatar fte | 

@Moumou92

"il faut avant tout former les gens à la photographie..."

Il faudrait aussi former les gens à internet. Certains n’obtiendraient pas leur permis de poster...

avatar byte_order | 

@Moumou92

Je vous paraphrase :

Je vous met au défi de m’envoyer un traitement informatisé aussi travaillé, avec cette qualité de précision, avec un ordinateur personnel.

La vérité c’est que la plupart des gens ne sont pas formés à l'informatique... la vérité c’est que la plupart des gens font des traitements informatisés mal conçus, mal implémentés et surtout sans intérêt (la calculatrice ou le jeu du pendu programmé de la même façon des millions de fois). Ce type d’outil n’est pas au point, et même si il l’était il ne servirait à rien... il faut avant tout former les gens à la programmation...

----

C'est assez marrant de lire votre commentaire, alors que tout le succès d'Apple repose sur rendre l'outil informatique accessible aux gens sans qu'ils ne doivent préalablement se former à des tonnes de pratiques pointues pour pouvoir en tirer parti de manière intéressante.

Je pense sincèrement qu'il y a dans ce monde plus de consommateurs intéressés à pouvoir prendre des photos exploitables pour leur besoin dans leur vie, malgré des conditions difficiles de prise, que de consommateurs qui accepteront de se former en photographie en conditions difficiles. Suffit de jetter un oeil aux centaines de millions de selfies produits chaque année pour s'en convaincre.

Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez.

avatar Bigdidou | 

@byte_order

« Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez. »

Évidemment.
Surtout qu’en plus, j’ai compris qu’il est débrayable.
A partir de là, je ne vois pas trop quoi lui reprocher.
Au pire, on prend un cliché avec et sans.

Le traitement appliqué est par ailleurs impressionnant. Certes, la scène est choisie pour que ça le soit, mais la netteté et la clarté de la femme au centre est bluffante.

avatar Moumou92 (non vérifié) | 

@byte_order

"Conséquences, je pense sincèrement que des algos qui compensent artificiellement les manquements en formation à la photographie, si, cela intéresse plus de gens que vous ne croyez."

Aucun algorithme ne peut composer une image à votre place: l’équilibre d’une composition n’est pas automatisable... le traitement ok, c’est plus ou moins standardisable même si je trouve ça triste cette absence de parti pris, de choix artistique... mais admettons... par contre la composition n’est pas modifiable par algorithme... une photo mal pensée à l’origine le sera quelque soit le traitement numérique...

« Shit in, shit out » comme on dit chez moi...

Quand je parle de formation à la photographie, je parle plus de composition, de références et d’histoire de la photo que de technique qui est finalement assez simple si on y passe quelques heures...

avatar fte | 

@Moumou92

"l’équilibre d’une composition n’est pas automatisable..."

C’est faux. Les règles de composition existent, et elles existent pour une raison.

Elles existent parce que certaines compositions et proportions sont plus appréciées par une majorité d’observateurs, étudié et démontré dans des domaines visuels variés, de l’architecture à la photographie en passant par l’aquascaping d’aquariums.

Elles existent parce que nous, humains, sommes physiologiquement câblés pour apprécier certaines proportions, dont l’une des plus célèbres est présente partout dans la géométrie de la nature vivante.

Bref. C’est automatisable.

Même sans cela ça serait automatisable. Il suffirait de collecter assez de like sur une base de données de photos géante, et d’entraîner des réseaux de neurones à liker de la même manière.

avatar Moumou92 (non vérifié) | 

@fte

C’est automatisable sans soucis si tu montes l’iPhone sur pied motorisé... sinon jusqu’à preuve du contraire c’est l’utilisateur qui cadre... et lui a besoin d’être nourri de ces règles et doit faire sa culture photographique...

En fait tu proposes juste d’éduquer une IA à la photo à la place de l’utilisateur... dans tous les cas il faut une éducation photographique...

avatar fte | 

@Moumou92

"C’est automatisable sans soucis si tu montes l’iPhone sur pied motorisé..."

Grand angle, fish-eye même, un de chaque côté, et pas besoin de moteur. Tu manques de connaissances photo. Ou d’imagination.

Entrainer une IA sur les photos FB, tu appelles ça de l’éducation photographique ? Mazette.

avatar Moumou92 (non vérifié) | 

@fte

"Entrainer une IA sur les photos FB, tu appelles ça de l’éducation photographique ? Mazette."

Tu m’expliqueras à quel moment j’ai écris ça...

avatar baklawa | 

.

avatar anonx | 

@Moumou92

Puis un beau jour sur l’iPhone.... après X années à 3000€...

« MAIS C’EST UNE RÉVOLUTION ?????? »

?

avatar IPICH | 

@anonx

T'as pas tort? actuellement apple fait exactement ça pour les appels FaceTime à plusieurs disponible que maintenant.

avatar pagaupa | 

@Moumou92

Toujours objectif...?

avatar fte | 

@Moumou92

"Qui fait vraiment ce genre de photos avec un téléphone? Personne..."

Bin si, eux, au moins.

Mais quand bien même, personne ne t’oblige. Tu peux aussi faire un pas en arrière pour essayer de comprendre ce qu’ils essaient de montrer.

"ils feraient mieux de se concentrer sur des fonctions utiles (un OS SIMPLE) plutot que sur des fonctions inutiles (un appareil photo inutilisable...)."

Simple ? Qui définit simple ? Quand est-ce pas assez simple ? Et quand est-ce trop simple ?

En attendant, d’iOS, j’entend plus "limité" ou "comment faire ceci cela" que "simple".

Bref. Il n’y a rien d’objectif dans ton appréciation de la simplicité.

avatar Arcetnathon | 

@fte

Et ils essaient de montrer quoi ?
Parce que mis a part leur mauvaise foi...

avatar AppleFan29 | 

Je trouve le mode nuit des pixels particulièrement horrible. Apple a choisi un rendu très juste proche de la réalité que voit l’œil humain là ou Google propose une bouillie lumineuse qui n’existe pas. Gros travail aussi chez Apple pour préserver les hautes lumières là ou chez Google elle sont systématiquement cramées.

avatar bidibout (non vérifié) | 

@AppleFan29

Exactement ??

avatar SebKyz | 

@AppleFan29

On va dire que les gens avec leurs photos de soirées pourront publier des images bien claires et donc exploitables. Là où d’autres smartphones ne le pourront pas même avec un flash.

avatar Arcetnathon | 

@SebKyz

Ce qui est faux. C est facile de falsifier ce genre de photo, tu baisses la luminosité a fond et t as une photo sombre...

avatar macam | 

@arcetnathon:
Absolument. Même avec mon iphone 6 j'obtiendrais une photo beaucoup plus lumineuse.

avatar Woaha | 

@AppleFan29

J’aimerais bien un bouton neural enhancement sur iPhone pour choisir entre deux modes.

avatar R1x_Fr1x | 

"Chez Google, le sujet est parfaitement visible et le fond très éclairé, peut-être un poil trop"

"peut-être un poil trop"

"un poil trop"

"trop"

Commentaire tellement macgénifique.

avatar tempest | 

Le Pixel et parfait pour qui veut faire du surréalisme mais le XS rend la réalité. Il suffirait de plus d’activer le flash sur l’iPhone pour obtenir un truc encore plus classe que le Pixel. Mais cela étant dit on ne peut que reconnaître l’énorme travail de photocomputing accompli par Google pour un résultat too much sur cette image.

avatar fte | 

@tempest

"Le Pixel et parfait pour qui veut faire du surréalisme mais le XS rend la réalité."

Le regard est interprétation. La photo est aussi interprétation, rendre la réalité n’a aucun intérêt. Surtout quand il fait nuit et que tout est sombre.

avatar webHAL1 | 

@fte
« La photo est aussi interprétation, rendre la réalité n’a aucun intérêt. »

Rhhooo, mais comment oses-tu dire ça ?! La photo doit IMPÉRATIVEMENT n'être qu'une reproduction tout à fait conforme de la réalité (la preuve : strictement PERSONNE n'applique des filtres ou retouches ses images). Elle doit refléter ce que MES yeux ont vu (les yeux des autres, je m'en moque !), et c'est tout.
Par conséquent, les prouesses de ce Pixel 3 sont totalement imbéciles et superflues. Enfin, jusqu'à ce que les iPhone soient capables de faire la même chose, bien sûr. :-D

avatar ForzaDesmo | 

@tempest @fte @webHAL1

Je pense que la photo (image et fichier) doivent être le plus proche de la réalité sous un format recueillant le plus d'informations possible pour avoir un point de départ autorisant un maximum de créativité si besoin est.
D'où un fichier au format .raw, et ensuite pour ceux qui veulent augmenter la réalité, la sublimer ou la transformer le faire dans un deuxième temps soit d'une façon rapide avec des presets ou des filtres, soit sous forme singulière et personnelle en jouant directement sur tous les paramètres ouverts par le format.
C'est pour cette raison que je qualifiais les 2 rendus "impropres" car en deçà de la réalité pour l'un et surréaliste pour l'autre.

avatar webHAL1 | 

@ForzaDesmo
« Je pense que la photo (image et fichier) doivent être le plus proche de la réalité sous un format recueillant le plus d'informations possible pour avoir un point de départ autorisant un maximum de créativité si besoin est. »

Pour ma part, je pense que cela n'est vrai que pour un public averti. La grande majorité des gens veulent un appareil qui fasse de "belles photos", et surtout n'auront aucune idée de ce qu'est un "fichier .raw".
Le mode nuit du Pixel 3 est optionnel, je ne vois donc aucune justification dans les nombreuses critiques qu'on peut lire dans ce fil de discussion. L'appareil de Google offre une fonctionnalité supplémentaire par rapport aux iPhone, il ne l'impose pas, et la question du "réalisme" est sans fondement, puisqu'il ne s'agit pas du tout du but recherché.

avatar ForzaDesmo | 

@webHAL1

Tu n'as lu/retenu qu'une partie de mes propos. Pour les AppleUsers tu peux faire la correction après avec les filtres et preset proposés pour le public non averti. C'est d'ailleurs ce qu'ils adorent faire, faire m'amusent avec divers filtres.
Comment fait-on avec le Pixel pour avoir une image proche de la réalité (ce que l'on voit à l'oeil) ? Quelle photo a t'on sans ce mode nuit, c'est ça qui est intéressant.
Il y a 2 façons de faire, une où tu appliques un filtre correcteur déjà tout prêt ou alors d'entrer de jeu appliquer le "filtre" mode nuit. On fait donc exactement la même chose avec les 2 appareils mais de façon différente. C'est pourquoi l'idéal reste l'image vraie, celle que l'on voit à l'oeil nu. Et ces 2 appareils n'y arrivent pas sur la prise de photo. A défaut Il faudrait pendant le temps de prise (le temps de pause) pouvoir faire les bons réglages pour obtenir le rendu réaliste.
PS: Je ne critique pas plus le Pixel que le Pommé. Je dis juste que les 2 photos ne rendent pas la réalité et c'est un problème, sauf si dès le début on voulait une photo sous-exposée ou une photo retravaillée irréaliste.

avatar webHAL1 | 

@ForzaDesmo
« Pour les AppleUsers tu peux faire la correction après avec les filtres et preset proposés pour le public non averti. »

À ce que j'ai compris, justement pas. Le Pixel fait tout un tas de traitement au moment de prendre la photo, en combinant par exemple plusieurs images, ce qui ne sera plus possible de faire par la suite avec une seule photo.

« Comment fait-on avec le Pixel pour avoir une image proche de la réalité (ce que l'on voit à l'oeil) ? »

On désactive le mode nuit, j'imagine.

« Quelle photo a t'on sans ce mode nuit, c'est ça qui est intéressant. »

C'est intéressant pour un passionné de photographie qui a envie d'un appareil reproduisant la réalité le plus fidèlement possible. Comme je l'expliquais ci-dessus, ce n'est pas à ces gens-là que le Pixel s'adresse et la grande majorité des utilisateurs ne sera pas intéressé par cet aspect. Ils voudront de belles photos, sans devoir rien faire de compliqué.

« Je dis juste que les 2 photos ne rendent pas la réalité et c'est un problème [...] »

Nope. :-)

avatar ForzaDesmo | 

@webHAL1

« Pour les AppleUsers tu peux faire la correction après avec les filtres et preset proposés pour le public non averti. »
À ce que j'ai compris, justement pas.

Si tu n'as pas d'iPhone ça va être difficile de commenter. Donc voici un lien pour que tu saches tout ce que tu peux faire pour traiter l'image directement ou par filtre, preset, preset de logiciels tiers directement depuis photos, tout ce que fait un utilisateur lambda.
https://www.apple.com/fr/ios/photos/

Ils voudront de belles photos, sans devoir rien faire de compliqué.
Le problème c'est qu'aucune des 2 n'est "belle" malgré un traitement pour le pixel.
Quant à la photo prise avec l'iPhone, je doute fort que le flash est été utilisé vu la courte distance du sujet de l'objectif. Ce qu'un utilisateur lambda aurait activé à minima.
Et avec Photos il y a des filtres et preset

avatar webHAL1 | 

@ForzaDesmo
« Si tu n'as pas d'iPhone ça va être difficile de commenter. »

Je ne vois pas le rapport avec le sujet et, en l'occurrence, je possède un iPhone 6 qui est mon appareil photo principal. ^_^

avatar ForzaDesmo | 

@webHAL1

Je ne vois pas le rapport avec le sujet et, en l'occurrence, je possède un iPhone 6 qui est mon appareil photo principal. ^_^
C'est surtout le rapport à savoir que tu peux traiter l'image directement ou par filtre, preset, preset de logiciels tiers directement depuis photos, tout ce que fait un utilisateur lambda.
https://www.apple.com/fr/ios/photos/
Par rapport à ton doute “« Pour les AppleUsers tu peux faire la correction après avec les filtres et preset proposés pour le public non averti. » À ce que j'ai compris, justement pas.

avatar webHAL1 | 

@ForzaDesmo

Avais-tu lu la suite de mon commentaire ?
"Le Pixel fait tout un tas de traitement au moment de prendre la photo, en combinant par exemple plusieurs images, ce qui ne sera plus possible de faire par la suite avec une seule photo.".

avatar ForzaDesmo | 

@webHAL1

Oui. Mais moi je te parlais de l'iPhone qui a une autre façon de faire dont le Live Photos. Le Pixel ne laisse pas le choix du traitement. Si cela colle au désir de l'utilisateur c'est ok sinon tant pis.
Tout ce que font et proposent les 2 smartphones au niveau photo c'est que tu plus pour un téléphone. Donc c'est que du positif.
Mais je ne vois pas de différence au final entre les 2. Car pour moi encore une fois les 2 clichés ne sont pas bons.
Si le but ici est de dire que l'on ne voit pas le sujet sur la photo prise avec l'iPhone comparé à la photo prise par le Pixel, alors il faut dire à celui qui à pris les photos d'utiliser le flash ou de jouer sur les paramétrages de luminosité ?
Maintenant la fonction du Pixel de faire du HDR+ est toujours bienvenue.
D'ailleurs dans l'article on ne sait même pas si la fonction HDR a été utilisé sur l'iPhone.

avatar webHAL1 | 

@ForzaDesmo
« Tout ce que font et proposent les 2 smartphones au niveau photo c'est que du plus pour un téléphone. Donc c'est que du positif. »

Voilà. Et je ne crois pas qu'il faille chercher dans cette publicité de Google autre chose que : "notre Pixel 3 peut faire quelque chose que votre téléphone X ne peut pas faire".

avatar ForzaDesmo | 

Voilà. Et je ne crois pas qu'il faille chercher dans cette publicité de Google autre chose que : "notre Pixel 3 peut faire quelque chose que votre téléphone X ne peut pas faire".
Comme dit plus haut à mon avis il peut le faire, mais d'une façon différente. Mais seul celui qui a pris la photo peut-dire exactement son protocole. Ne serait-ce que pour dire si il a utilisé l'option HDR de l'iPhone ?
C'est toujours difficile pour nous simple lecteur de se prononcer sur un tel comparatif qui ne mentionne pas le protocole.

avatar webHAL1 | 

@ForzaDesmo
« Comme dit plus haut à mon avis il peut le faire, mais d'une façon différente. »

Mmhhh, cela revient au même. ^_^
C'est comme dire qu'Excel peut faire des choses que Numbers ne peut pas faire (par exemple les macros VBA) et se voir répondre "il peut le faire, mais d'une façon différente". Pour l'utilisateur, cette "différence" fait toute la... différence ! ;-)

avatar ForzaDesmo | 

@webHAL1
«il peut le faire, mais d'une façon différente". Pour l'utilisateur, cette "différence" fait toute la... différence !»
Sélectionner A au lieu de sélectionner B. Effectivement ça fait une grosse différence quand on est habitué à sélectionner B, du coup l'utilisateur lambda est perdu.

avatar webHAL1 | 

@ForzaDesmo
« Sélectionner A au lieu de sélectionner B. Effectivement ça fait une grosse différence quand on est habitué à sélectionner B, du coup l'utilisateur lambda est perdu. »

Ah ah, j'aime bien quand tu es de mauvaise foi comme ça ! :-D

avatar ForzaDesmo | 

@webHAL1

«Ah ah, j'aime bien quand tu es de mauvaise foi comme ça ! :-D»

Pixel : Sélection mode nuit + clic photo
iPhone : Sélection HDR + clic photo
iPhone/Pixel : Clic photo + sélection filtre

Et je ne parle pas des possibilités de réglages en live à la prise de photo.

Comme tu vois y a pas de mauvaise foi. C'est juste que je ne suis pas arrivé à me faire comprendre... ou que tu n'as pas voulu comprendre ?

avatar webHAL1 | 

@ForzaDesmo
« Pixel : Sélection mode nuit + clic photo
iPhone : Sélection HDR + clic photo »

Sauf que les deux photos n'auront rien à voir ! C'est justement tout l'intérêt du mode nuit du Pixel, qui n'est pas reproductible sur un iPhone, à moins de faire de lourds post-traitements (et même, probablement que le résultat ne sera pas aussi bien).

avatar ForzaDesmo | 

@webHAL1

«Sauf que les deux photos n'auront rien à voir ! C'est justement tout l'intérêt du mode nuit du Pixel, qui n'est pas reproductible sur un iPhone, à moins de faire de lourds post-traitements (et même, probablement que le résultat ne sera pas aussi bien).»
Reproduire le mode nuit du Pixel n'a aucun intérêt pour ma part vu que l'on est loin de la réalité, autant prendre un filtre (une sélection simple) pour reproduire une telle dérive.
Mais si pour toi ou d'autres cette fonction est un plus alors tant mieux. C'est le but.

avatar webHAL1 | 

@ForzaDesmo
« Reproduire le mode nuit du Pixel n'a aucun intérêt pour ma part vu que l'on est loin de la réalité, autant prendre un filtre (une sélection simple) pour reproduire une telle dérive. »

Okay, aucun souci avec ça, c'est ton opinion et elle est tout à fait respectable. Mais ce n'était pas le propos de départ. Celui-ci était : est-il possible d'obtenir avec un iPhone un résultat identique (ou même approchant) à celui du Pixel 3 avec la même facilité. :-)

avatar ForzaDesmo | 

@webHAL1

Celui-ci était : est-il possible d'obtenir avec un iPhone un résultat identique (ou même approchant) à celui du Pixel 3 avec la même facilité. :-)
Identique serait un bien grand mot, mais faire en sorte que la photo soit meilleure ou que l'on puisse avoir une photo avec une dérive de la réalité plus "lumineuse" oui et avec la même facilité. Mais pas avec un mode nuit puisqu'il n'y a pas le pendant sur l'iPhone. Mais via un filtre, voir l'option HDR (mais il aurait fallu que celui qui a réalisé ce "faux" comparatif le fasse), ce qui est aussi rapide et facile comme dis plus haut.
Mais honnêtement la photo faites avec l'iPhone est sans utilisation de l'option HDR et/ou du flash, ce qui aurait complètement changé l'image et là il aurait été interessant de voir la différence.
Personnellement je ne prends pas de photo avec mon iPad ou l'iphone de mon amie, j'ai un APN semi-Pro. Mais je peux te dire qu'avec un simple filtre HDR à partir d'un photo avec encore plus d'ombre que sur le cliché fait avec l'iPhone tu arrives à ressortir une image où tous les éléments cachés dans les ombres sont visibles et proche de la réalité visuelle avec là aussi en général des couleurs beaucoup "flashy" que la réalité visuelle.

avatar webHAL1 | 

@ForzaDesmo
« Mais honnêtement la photo faites avec l'iPhone est sans utilisation de l'option HDR et/ou du flash, ce qui aurait complètement changé l'image et là il aurait été interessant de voir la différence. »

Oui, je suis d'accord.

avatar fifounet | 

@webHAL1

"Rhhooo, mais comment oses-tu dire ça ?! La photo doit IMPÉRATIVEMENT n'être qu'une reproduction tout à fait conforme de la réalité (la preuve : strictement PERSONNE n'applique des filtres ou retouches ses images). Elle doit refléter ce que MES yeux ont vu (les yeux des autres, je m'en moque !), et c'est tout.
Par conséquent, les prouesses de ce Pixel 3 sont totalement imbéciles et superflues. Enfin, jusqu'à ce que les iPhone soient capables de faire la même chose, bien sûr. :-D"

Ho la vache !
Je suis d’accord avec toi dis donc ?

avatar fifounet | 

@fte

"rendre la réalité n’a aucun intérêt. Surtout quand il fait nuit et que tout est sombre."

Ben si justement la réalité vaut le coup d’être sauvegardée aussi.
La nuit tout est sombre et tous les chats sont gris. ?
Et l’œil s’adapte et les cellules sensibles à là lumières faible (bâtonnets), mais pas aux couleurs (cônes), font bien leur boulot et c’est pour ça que la nuit on ne distingue pas les couleurs mais on y voit même avec très peu de lumières.
Pour les couleurs ça sera le boulot des cônes moins sensibles à la lumière

La photo n’est là que pour reproduire notre œil
Pour le reste avec les transformations ça sera donc de l’art ou autre chose peut être ?

avatar fte | 

@fifounet

"La photo n’est là que pour reproduire notre œil"

Non.

D’une part notre oeil ne voit pas la "réalité", d’autre part aucune photo n’a jamais reproduit ce que voit l’oeil.

Pense juste à la netteté, ce que l’oeil voit net (fovea toujours net et absolument rien d’autre, presque tout est flou et peu défini), ce qu’une photo reproduit net.

avatar fifounet | 

@fte

« Non. »

Si

« D’une part notre oeil ne voit pas la "réalité", »

Ce n’est pas argument.
La photo n’est pas forcément la réalité

« d’autre part aucune photo n’a jamais reproduit ce que voit l’oeil. »

Donc quand tu regardes une photo d’une personne tu n’arrives pas à la comparer à ta réalité ?

Que la photo capte plus que ton œil pourquoi pas. Mais l’élément limitant restera toujours ton œil.

avatar fte | 

@fifounet

"Donc quand tu regardes une photo d’une personne tu n’arrives pas à la comparer à ta réalité ?"

Quel rapport ?

J’arrive à comparer des prédictions calculées avec les équations de Maxwell avec des mesures de champ.

Une photo ne capture ni plus ni moins que l’oeil, elle capture différemment. Et ni une photo ni un oeil ne capturent la réalité.

Fun fact, personne ne sait ce qu’est la réalité. Il n’y a peut-être aucune réalité d’ailleurs, et il n’y a aucune preuve incontestable que nous existons.

avatar fifounet | 

@fte

« Quel rapport ? »

Ben parce que tu disais qu’aucune photo ne reproduit ce que voit l’œil tien ...
Elle reproduit à minima ce que voit l’œil sinon on ne reconnaîtrait pas la photo

« J’arrive à comparer des prédictions calculées avec les équations de Maxwell avec des mesures de champ. »

Bravo
Félicitations ?

« Une photo ne capture ni plus ni moins que l’oeil, elle capture différemment. Et ni une photo ni un oeil ne capturent la réalité. »

Ni moins c’est une évidence
Ni plus ça j’en suis moins convaincu
Les chevaux voient en noir et blanc et pourtant ils ne nous l’ont jamais dit

« personne ne sait ce qu’est la réalité. « 

La réalité n’existe pas
Sauf dans notre esprit commun puisque nous la partageons et nous y interagissons

« Il n’y a peut-être aucune réalité d’ailleurs, et il n’y a aucune preuve incontestable que nous existons. »

Oui peut être vas tu te réveiller demain matin et te rendre que tu as rêvé depuis que tu es né

Néo ??

Ou alors peut être que seuls les fous voient la réalité ?

avatar fte | 

@fifounet

"Ben parce que tu disais qu’aucune photo ne reproduit ce que voit l’œil tien ..."

Oui.

Je ne vois pas en quoi reconnaître une personne sur une photo contredit ce que je disais.

Tu ne reconnais pas des visages dans les oeuvres de Giuseppe Arcimboldo ? Il n’y a que fruits et légumes pourtant.

avatar fifounet | 

@fte

« Tu ne reconnais pas des visages dans les oeuvres de Giuseppe Arcimboldo ? Il n’y a que fruits et légumes pourtant. »

Tu devais pas être très bon au jeu des 7 erreurs toi.
Moi si j’adorais ça étant petit

avatar fte | 

@fifounet

"Les chevaux voient en noir et blanc et pourtant ils ne nous l’ont jamais dit "

Un cheval ne parle pas.

avatar fifounet | 

@fte

"Un cheval ne parle pas."

Dans ta réalité peut être
Mais je serais pas aussi sûr à ta place.

avatar fte | 

@fifounet

"Oui peut être vas tu te réveiller demain matin et te rendre que tu as rêvé depuis que tu es né"

Ou celui/celle qui nous rêve va se réveiller et on cessera "d’exister".

Si tu t’intéresse un peu à la physique quantique et à la cosmologie, l’intersection des deux est une source inépuisable de théories absolument délirantes et fantastiques. Et sérieuses. Le principe holographique par exemple, ou encore l’espace-temps agissant comme un code de correction d’erreurs quantique - principe essentiel pour que les ordinateurs quantiques puissent un jour être utiles -, ou encore qu’il y a plus d’indices laissant penser que l’univers serait une simulation qu’un machin réel...

avatar fifounet | 

@fte

« Si tu t’intéresse un peu à la physique quantique et à la cosmologie »

Oui un peu et j’adore les bouquins Stephen Hawking. Et aussi son DVD « l’Univers »
J’adore se vulgarisation son partage des principes complexes à la portée de tous.
Je préfère 10000 fois ça aux démonstrations techniques et mathématiques (sans les critiquer pour autant bien sûr)

« l’intersection des deux est une source inépuisable de théories absolument délirantes et fantastiques. Et sérieuses. Le principe holographique par exemple, ou encore l’espace-temps agissant comme un code de correction d’erreurs quantique - principe essentiel pour que les ordinateurs quantiques puissent un jour être utiles -, ou encore qu’il y a plus d’indices laissant penser que l’univers serait une simulation qu’un machin réel... »

Arrête tu me fais flipper ?
Mais effectivement, tellement à découvrir.
La religion peut elle rejoindre un jour ces principes ? Qui sait ?
Mais il existera toujours les questions
« Oui mais avant ça »
« Quel est le vrai début »

Et Le fait de dire « oui mais avant le temps n’existait pas» donc on ne se pose pas la question ne me satisfait pas personnellement.

Mais pour avancer dans toutes ces théories comme d’habitudes il faudra aussi un illuminé pour les porter et les défendre devant certains scientifiques bloqués dans leurs principes de bases.

avatar fte | 

@fifounet

"La religion peut elle rejoindre un jour ces principes ? Qui sait ?"

Avis strictement perso : fuck la religion.

avatar fifounet | 

@fte

"Avis strictement perso : fuck la religion."

Je suis comme toi mais plus mesuré
Tant que ça fait du bien à certains pourquoi pas
Quand ça dépasse le bornes effectivement

avatar fte | 

@fifounet

"Tant que ça fait du bien à certains pourquoi pas"

Parfaitement d’accord. C’est pour ça que ne disais personnellement. Chacun son bignou.

Ma religion, c’est le boson de Higgs. Même si c’est la théorie physique qui produit les prédictions les plus fantastiquement précises bien qu’on sache sans le moindre doute possible qu’elle est fausse. Surtout, en fait.

avatar fifounet | 

@fte

"Ma religion, c’est le boson de Higgs"

Mais qui a créé, si il existe , ce boson ?
?

avatar Moumou92 (non vérifié) | 

@fte

"Ma religion, c’est le boson de Higgs."

Je serai curieux de savoir combien de personnes parlent de ce boson sans même comprendre de quoi ils parlent, simplement pour épater la galerie...

Mais sinon je partage ton opinion sur la religion: inventée à une époque pour éduquer le peuple analphabète et leur imposer des règles de vie... complètement désuète et remplacée par ce que l’on appelle la loi... maintenant certains n’ont aucun recule pour comprendre que la religion n’avait comme objectif que d’imposer un cadre... à aucun moment ce n’était à prendre au premier degré... mais cela reste un Bussiness lucratif (même si y a de moins en moins de gogos...).

avatar fte | 

@Moumou92

"Je serai curieux de savoir combien de personnes parlent de ce boson sans même comprendre de quoi ils parlent, simplement pour épater la galerie..."

Je ne comprends pas de quoi je parle.

Le machin du boson est ultra-complexe et assez bizarre. Je n’ai de très loin pas fait assez de quantique à la fac pour aller jusque là. Mais je comprends ce qui amène au champ de Higgs, et les principes généraux (si on peut dire).

J’aurais pu dire modèle standard. Mais je ne comprends pas plus les détails, très honnêtement.

La relativité est beaucoup plus simple.

avatar Moumou92 (non vérifié) | 

@fte

"La relativité est beaucoup plus simple"

En même temps la relativite n’a pas grand chose à voir avec le boson de higg... c’est même plutôt tous le contraire, la relativite et la physique quantique s’excluant mutuellement...

Mais oui la relativite est beaucoup plus simple car beaucoup plus facile à « visualiser », contrairement à la physique quantique dont il est impossible d’avoir une représentation mentale satisfaisante...

avatar fte | 

@Moumou92

"la relativite et la physique quantique s’excluant mutuellement..."

Tiens, tu ne sais pas les raisons menant au Higgs, ou tu ne dirais pas ça. Tu as 55 ans de retard.

avatar fte | 

@Moumou92

"Mais oui la relativite est beaucoup plus simple car beaucoup plus facile à « visualiser »,"

Pas ce qui touche à la causalité et aux horizons, aux limites en général. Vraiment pas.

Mais les maths sont plus simples, la théorie est plus simple, les concepts, ca se discute.

avatar ForzaDesmo | 

@fte

Fun fact, personne ne sait ce qu’est la réalité. Il n’y a peut-être aucune réalité d’ailleurs, et il n’y a aucune preuve incontestable que nous existons.

Effectivement. Dans ce cas, l'oeil ne voit pas ce que le rayon X lui voit. Donc qu'est-ce que la réalité ?
C'est assez absurde de dire que l'oeil ne voit pas la réalité. Par défaut ce que voit l'oeil est la réalité de la vérité "physique visible à l'oeil". Là où l'oeil ne voit pas la réalité c'est par exemple quand il voit un mirage. Mais sinon par défaut ce que l'oeil voit, c'est la réalité (réalité physiquement visible par l'oeil).
Après vous pouvez y voir ce que vous voulez ???

avatar fifounet | 

@ForzaDesmo

"Là où l'oeil ne voit pas la réalité c'est par exemple quand il voit un mirage. Mais sinon par défaut ce que l'oeil voit, c'est la réalité (réalité physiquement visible par l'oeil).
Après vous pouvez y voir ce que vous voulez"

Déjà il faut partir du principe que c’est ton cerveau qui voit. L’œil te transmet des données.
Mais c’est dans ton cerveau que l’image finale se forme.
Quand des personnes ont des hallucinations ou rêvent cela ne vient pas de tes yeux.

Est ce que tu sais comment les animaux perçoivent le monde qui nous entoure ?
Quelle espèce voit le plus juste ?

avatar ForzaDesmo | 

@fifounet

Déjà il faut partir du principe que c’est ton cerveau qui voit. L’œil te transmet des données.
Mais c’est dans ton cerveau que l’image finale se forme.

On a pas eu les même cours de biologie et d'optique alors. L'image se forme au niveau de la rétine (image rétinienne), on parle même de "pixels" rétiniens.
Le cerveau lui interprète et analyse les informations, et c'est là où justement on peut mal interpréter l'image rétinienne.

Quand des personnes ont des hallucinations ou rêvent cela ne vient pas de tes yeux.
Pour l'hallucination l'explication est au-dessus (problème d'analyse et d'interprétation).
Le cerveau ne voit pas à lui tout seul. Tu confonds avec le "disque dur" la mémoire qui revisualise. Demande à un aveugle si il a les même images que toi dans son "disque dur".

Est ce que tu sais comment les animaux perçoivent le monde qui nous entoure ?
Quelle espèce voit le plus juste ?

Tu mélanges tout encore une fois. Percevoir n'est pas voir. Là on parle de la vision oculaire. Vas-y, fermes les yeux et décris moi ce qu'il y a sur une photo... à part me dire que c'est fin, rectangulaire, plat etc... tu risques de ne pas pouvoir me décrire l'image.
Maintenant si tu veux parler des sens et de la façon d'appréhender son environnement, là on est complètement hors sujet.

avatar fifounet | 

@ForzaDesmo

On a pas eu les même cours de biologie et d'optique alors. »

Dommage tu tombes mal
Tu as fait de la bio jusqu’en terminale ?
Moi jusqu’en licence raté
Bien sûr que l’image se forme sur la rétine mais ensuite tout est transformé en influx nerveux
Ton cerveau n’interprète pas l’image optique de ta rétine mais l’influx nerveux qui en découle
C’est bien ça que je voulais dire

« Le cerveau ne voit pas à lui tout seul.
Tu confonds avec le "disque dur" la mémoire qui revisualise. Demande à un aveugle si il a les même images que toi dans son "disque dur".

Je ne confonds rien l’image finale c’est ton cerveau pas l’œil c’est de ça que je parle.
Tout est converti en influx nerveux
L’œil capte puis convertit.
Je n’ai jamais dit qu’il y avait une image optique dans ton cerveau !
L’interprétation est dans le cerveau et la y’a plus d’optique.

Je rebondis pas sur l’exemple de l’aveugle ?

« Tu mélanges tout encore une fois. Percevoir n'est pas voir. Là on parle de la vision oculaire. Vas-y, fermes les yeux et décris moi ce qu'il y a sur une photo... « 

Je ne mélange rien c’est toi qui a une vision flou du sujet

https://www.vision-et-cognition.com/vision-et-cognition/la-vision-de-loeil-au-cerveau/

Va direct au chapitre
« Au niveau des voies visuelles cérébrales »
Au lieu de faire le malin

Extrait
« Ce que nous voyons est donc une construction de notre cerveau et non une stricte photographie du monde extérieur que nos yeux auraient prise. »

avatar fte | 

@ForzaDesmo

"Là où l'oeil ne voit pas la réalité c'est par exemple quand il voit un mirage."

Je ne sais pas. J’étais dans le désert d’Oman l’été dernier, et on a vu un mirage justement. J’ai dit : regardez, un mirage. Nos yeux ont vu un mirage.

C’était un mirage véritable. Un vrai de vrai, bien réel. N’était-ce pas la réalité ? Moins que la dune à côté ? À quel point moins ? Un peu moins ? Beaucoup moins ?

avatar ForzaDesmo | 

@fte

C’était un mirage véritable. Un vrai de vrai, bien réel. N’était-ce pas la réalité ? Moins que la dune à côté ? À quel point moins ? Un peu moins ? Beaucoup moins ?
Il aurait fallu aller voir de plus près si l'interprétation de l'image affichée sur la rétine était la bonne interprétation du cerveau à la source d'information (image) donnée par l'effecteur (yeux) ??

avatar mat-u | 

Google veut supprimer la nuit

avatar marenostrum | 

pour ça qu'ils montrent un modele comme sujet. c'est voir le modele qui prime dans cette photo, pas voir la nuit. sans la personne l'appareil n'éclaircit pas autant la scène j'imagine. pour ça ils appellent l'intelligence artificielle tout ça.

avatar ancampolo | 

@mat-u

???

avatar Himeji | 

@mat-u

Là, ils l’ont bien fait disparaître. ?

avatar JohnS2B | 

Il n’en demeure pas moins que la prouesse technique est tout de même à saluer.

Aussi, bien que les photos soient fantaisistes et non proches de la réalité, elles restent jolies.

avatar malcolmZ07 | 

@JohnS2B

+1 j'aimerais bien ce mode aussi.
Les mode nuit du one + est complètement raté comparativement à celui de google

avatar greggorynque | 

Moi je préfère une photo inexploitable à un mode qui me permet de voir le sujet pris ...

Personne jamais ... (sauf chez les fanboy)

Le mode nuit du pixel est optionnel et est vraiment d’une qualité et d’une intelligence remarquable.
J’adorerais l’avoir sur mon XS.

J’espère vraiment qu’Apple sortira un mode nuit sur le prochain iOS, mais malheureusement ils ne le feront sans doute que sur les nouveaux modèles, puisque bon, il faudra trouver une raison pour pousser au renouvellement.

avatar Lestat1886 | 

@greggorynque

Et tu penses qu’ils ont utilisé le flash pour la photo du Xs ? Ou quelques apps tierces qui permettent d’avoir un résultat proche (mais pas aussi lumineux)?

Et objectivement le mode nuit du Pixel est impressionnant mais un peu cramé et pas très réaliste.

avatar TiTwo102 | 

T’as des noms pour les meilleures apps tierces de photos de nuit sur iPhone ?

avatar Lestat1886 | 

@TiTwo102

J’utilise notamment ProCam Camera+ et dernièrement NightCap. Ça permet d’avoir plus de luminosité même si ce n’est pas sans compromis et que le mode nuit du Pixel reste meilleur en termes de traitement

avatar codeX | 

"J’espère vraiment qu’Apple sortira un mode nuit sur le prochain iOS, mais malheureusement ils ne le feront sans doute que sur les nouveaux modèles, puisque bon, il faudra trouver une raison pour pousser au renouvellement."
C'est sur qu'il doit y avoir des dizaines de millions d'utilisateurs qui rêvent de faire ce genre de photos ?

avatar rolmeyer (non vérifié) | 

@codeX

Moi aussi je suis content de cette pub, en espérant que Apple nous sorte qq chose..?? Même moche c’est toujours mieux que raté.

avatar IPICH | 

@codeX

C'est comme le mariage pour tous: ça ne concerne qu'une petite partie de la population MAIS ça donne la possibilité et le choix à ces personnes.

La minorité homos qui veut se marier le pourra, et la minorité qui veut utiliser ce mode sur leur iphone le pourra.

avatar Bigdidou | 

@IPICH

« La minorité homos qui veut se marier le pourra, et la minorité qui veut utiliser ce mode sur leur iphone le pourra. »

C’est un fil étonnant.
D’un côté, il est question de filtres très sophistiqués pour la photo, et dans certains commentaires, ça semble mettre en panne absolument tous les autres filtres.

Fallait oser la comparaison, quand même.

avatar Lonsparks23 | 

Des derniers tests vu sur YouTube, le Pixel ralentit déjà au bout de 3 mois... ça a refroidi mon souhait d’en tester un...

avatar Lonsparks23 | 

@Ze_misanthrope

En l’occurrence c’était même pas le sujet de la vidéo. C’était un test sur le dernier One Plus, et le gars comparait les deux. Et effectivement les microlags vraiment perceptibles apparaissent sous quelques mois sur le Pixel. En y réfléchissant c’est que la troisième itération du téléphone et Google ne maîtrise pas à 100% le hardware, on l’a aussi vu récemment avec le Slate qui est une honte sans nom.

Oui c’est bien de ne pas croire tout ce qu’il y a sur internet mais là en l’occurence c’est un petit gars que je connais a qui je fais confiance.

Être tenu d’un scepticisme constant sur tout n’est pas très sain non plus ;-)

avatar Lonsparks23 | 

@Ze_misanthrope

Le problème est déplacé mais soit. Je ne vois pas en quoi ton argument virtuel est de plus grande valeur qu’une vidéo YouTube disons. Voire même je pourrais dire que ce gars a sans doute testé une panoplie bcp plus grande de téléphones que toi un anonyme sur internet et est plus légitime pour en parler ?

En plus tu donnes un coup d’épée dans l’eau vu que justement les Pixel m’intéressent de plus en plus et à aucun moment j’ai voulu comparé à autre chose.

Je répète mon argument, de toute façon pour moi à la base Google ne maîtrise pas encore parfaitement le hardware, notamment la face avant qui est à a-1 voire a-2 par rapport à la concurrence. Et le fait des problème de la latence pourrait aller dans ce sens, comme une mauvaise gestion de la RAM ou d’un bas niveau matériel logiciel.

Toujours est il que ce n’est pas dramatique mais que j’attendrais un ou deux ans pour le Pixel car je ne veux pas être déçu de l’expérience alors que je sais que c’est l’une des meilleurs alternatives à l’iPhone pour moi.

avatar Lonsparks23 | 

@Ze_misanthrope

Je sais mais tu imagines bien que je peux pas juste faire un test.

J’ai mon écosystème Apple derrière dont le HomePod, si je change c’est tout d’un coup. Donc je peux pas m’amuser à essayer 4 mois un téléphone pour voir s’il tient la route et après décider si je garde ou pas. Dans ce cas j’utilise mon avis personnel sur le produit (visuel, essai en magasins ou chez des potes) + oui des tests d’utilisations sur la durée sur des forums ou YouTube. Évidemment que c’est subjectif mais à ce stade ça l’est pour tout.

A-1 -2 je parlais de la génération de la face avant, ayant un X je me vois mal retourner sur un téléphone avec un menton ou même une encoche encore plus imposante. C’était pour ça que pour moi avec le 3 on est presque à ce que j’attends mais pas encore côté hardware

Dans une autre mesure du coup c’est quoi ton avis sur ce téléphone ? Des inconvénients ou des trucs bof ?

avatar Bigdidou | 

@Ze_misanthrope

« Je te réponds depuis un Pixel 3, et peux t assurer qu'au boulot on"joue" avec lui et les iPhone pour comparer. »

Non, rien.
Enfin, j’espère que ça ne te surmène pas trop.

C’est des fois fascinant ce que disent des gens ici à propos de ce qu’ils font au boulot.

avatar webHAL1 | 

@Bigdidou
« C’est des fois fascinant ce que disent des gens ici à propos de ce qu’ils font au boulot. »

Est-ce que tu connais son travail ? Lorsqu'on fait de la veille technologique, on "joue" (le verbe a été mis entre guillemets, ce n'est pas pour rien) avec plusieurs appareils pour les évaluer et déterminer lequel sera le plus adapté. À moins que tu connaisses la situation, je trouve ta remarque sur le "surmenage" particulièrement malvenue...

avatar Bigdidou | 

@webHAL1

« À moins que tu connaisses la situation, je trouve ta remarque sur le "surmenage" particulièrement malvenue... »

Oui, papa, et ze serai poli avec la maicresse, mais me gronde plus.
Le surmenage ne semble bon pour personne.
Bref.

avatar fifounet | 

@Bigdidou

"Oui, papa, et ze serai poli avec la maicresse, "

????

avatar webHAL1 | 

@Bigdidou
« Oui, papa, et ze serai poli avec la maicresse, mais me gronde plus. »

Voilà qui est mieux.
Et maintenant : silence dans les rangs !

avatar fifounet | 

@Ze_misanthrope

"Ta condescendance et ton air hautain n'aident pas ta cause ni l'image que le lecteur se fait des défenseurs de l'iPhone."

Et meeeeerde !
Ça m’apprendra, j’ai failli être d’accord avec toi sur ton discours plein d’explications et de bon sens.
Et oui hop ! Patatra !
Chassez le naturel il revient au galop ?
Tu n’as pas pu t’empêcher de faire un amalgame foireux à la con.
Mettre chacun dans une case
On a bien compris qu’il n’y a avait que toi qui n’était pas dans une case ici.
Les autres ben ce sont des fans non objectifs
Toi tu testes , tu « joues » des procédures de vérifications (créées ou justes exécutées )

Donc voilà tu sautes dessus pour essayer de nous redire encore une fois :
« Haaaaaa vous avez vu les gars !
J’en ai débusqué encore un !
Un fan d’iPhone !
Et comme d’habitude il est hautain blabla « 

On critique autre chose donc automatiquement on est défenseur de l’iPhone !!

Pfff

Quand grandiras tu ?

avatar fifounet | 

@Ze_misanthrope

"Et je n'ai plus de doutes."

Ça je sais bien que tu ne doutes jamais.
Pour cela il faut savoir se remettre en question

avatar fifounet | 

@Ze_misanthrope

« je me fais faire la morale par un mec qui ose faire une remarque sur mon aptitude a remplir mon rôle d'employé »

« Qui ose » ???
Voilà qui est dit ?
Quel blasphème !!!

« et actionnaire de la société) »

Ce détail est il nécessaire dans ton argumentation ? Ça prouve quelque chose de plus ?
Que veux tu nous démontrer?

«  et te fais de gros bisous de compassion. »

Ce genre de réplique bateau caches souvent une faiblesse attendrissante ?

« Il y en a qui voient le verre a moitié vide, et d'autres qui se concentrent sur mes fins de phrases, chacun son truc. »

Peut être devrais tu édulcorer tes propos en évitant justement ces fins de phrases inutiles.
On appelle ça la maturité

Remarque bien que j’ai commencé par dire que le début était bien mais ta fin particulièrement nulle annulait tout le reste.
Tu essaies juste de te poser en victime et moi en bourreau pour éviter de te remettre en question.
Avec toi le mal c’est toujours les autres.

« Bon rétablissement."

Voilà c’est exactement ce que je disais ?
Les fins ridicules
C’est plus fort que toi.

Ou alors retiens toi juste un peu et cumule toutes tes fins de phrases dans un commentaire à part si ça te démange autant

Pour revenir au sujet, tu mets toujours en avant le fait que toi tu testes réellement les produits différents et que donc seul toi seul (ou les rares personnes dans ton cas ) peut exprimer des avis justes et équilibrés.
Tu profites de cet état de fait pour te poser en maître des clés, en juge absolu et que, quand on ne fait pas comme toi , on ne mérite pas d’être pris en compte.
Ce n’est pas parce qu’on a un référentiel différent du tien qu’on a pas un avis méritant d’être pris en compte.
N’oublies que tu fais juste partie des 0.01% des utilisateurs. Donc quoi ? Les 99.99 autres % n’ont qu’à se taire ?

Non cet avantage ne te donne pas plus de valeur malgré ce que tu crois.

Le jugement d’un musicien sur un style musical ou un artiste particulier n’a pas plus de valeur que l’avis d’un auditeur quelconque.

Tout jugement est subjectif.
Ton expérience particulière ne te donne aucun avantage

avatar bidibout (non vérifié) | 

@Lonsparks23

Android quoi... C'est le problème que j'ai déjà remarqué (pourtant un Nexus) c'est top au début et à force des micros lags ici et là et au bout de plusieurs moi ça finit par ramer (j'exagère un peu mais pas tant que ça).

avatar malcolmZ07 | 

@Lonsparks23

Mkbhd c'est sépare de 2 de ses pixels 2 car ils ralentissaient aussi.
Phénomène très étrange. On trouve plus fluide et plus beau dans le monde Android. À Part l'apn il a rien pour lui ce pixel 3

avatar Lirche | 

Sans le sujet, j’aurais tendance à préférer la photo de l’iPhone Xs plus naturelle

Mais il est vrai que ce mode nuit est impressionnant et peut donner des résultats très convaincants, bref je le veux sur mon iPhone

avatar nomatechapl | 

Heu... ProCamera de Cocologics aurait donné le même résultat que le Pixel 3 !!!
Le logiciel d’Apple se veut simple et répondant à 90% des besoins en conservant un résultat réaliste...
ProCamera fait pareil avec en plus des réglages poussés comme LowLight par exemple. Pour quelques euros on sort des photos impossibles à faire avec l’App Apple, et entre autre un format « RAW » pour déboucher des zones sombres ou récupérer (un peu) des zones surexposées, avec possibilité de suppression du grain...

avatar Killy | 

@nomatechapl

Oui, un app a moins de 10€ fait la même chose que le Pixel 3 de Google.
On se rassure comme on veut.

avatar AppleAddictdu89 | 

Et ben objectivement et oui je suis sérieux... je préfère infiniment le cliché de l’iPhone, beaucoup plus naturel et mystérieux, la vrai obscurité mixée aux couleur à l’arrière. C’est presque artistique.

La photo de droite est certes lumineuse, mais c’est aussi presque une blague....

Il faudrait peux être se rappeler du charme de la pénombre d’une photo en basse lumière.

avatar marenostrum | 

on voit pas la personne, sur la photo de l'iPhone. et c'est la personne le sujet de la prise, pas la rue derrière elle. l'exemple de Google est malin.

avatar rolmeyer (non vérifié) | 

@marenostrum

C’est malin et mainstream surtout , on est passé à l’époque du selfie ( constat pas critique ), ce qui compte c’est pas la photo, c’est d’être SUR la photo. Les gens sont au restaurant pour fêter qq chose, hop une petite photo souvenir, mieux vaut que ce soit moche mais qu’on voit leur tronche qu’une photo belle mais où on ne les voit pas.
Ça s’adresse aux gens qui avaient des compacts, pas aux mecs qui ont des reflex ou apparentés sur leur étagère.

avatar marenostrum | 

je trouve ça normal. l'homme est l'essentiel même dans l'Art (au moins le notre, qui vient de la Greece antique). tout autre chose ne lui sert que de décoration ou d'ornement.
c'est pas un hasard que le tableau le plus connu est La Joconde, un portrait.

avatar rolmeyer (non vérifié) | 

Oui c’est affreux, mais on voit la personne et surtout c’est de loin pas aussi affreux que les filtres à la con que les gens appliquent de toutes façon. C’est un win win.

avatar marenostrum | 

entre ces deux, la guerre a commencé en fait. la nouvelle beta de macOS Mojave 10.14.4 (18E174f), m'a désactivé le compte Google qu'il fallait l'activer dans le panneau des Préférences. surement pour rappeler à l'utilisateur que Google a accès dans Mail, Contacts, Calendriers, Notes.

avatar Baptiste_nv18 | 

@marenostrum

Mdr

avatar ysengrain | 

Toute photo numérique peut - peut - être éditée.
Point final

avatar broketschnok | 

MDR ils ne connaissent pas le flash chez Google ? Même les pros avec leur matos donnent un coup de flash pour déboucher les ombres

avatar Yves SG | 

Bin dit donc c’est pas rassurant pour les processeurs de Pixel ?
Parce que si même le service marketing de Google ne parvient pas à faire une photo qui tient la route avec un Pixel, c’est grave ?

avatar JLG47_old | 

La photo est un vrai fack. Mais je sais aussi le faire.

avatar JLG47_old | 

Trop facile.
Il suffit de pointer le réglage sur une lumière pour écraser la photo. A l’inverse, pointer le réglage sur la personne débouche parfaitement.
Avec un bon (très bon même) appareil, il est toujours possible de faire de très mauvaises photos.

avatar pagaupa | 

Apple ou autres, personne n’arrive à la hauteur de mon lumix x20...
Et pourtant il ne date pas d’hier...

avatar eastsider | 

@pagaupa

Le lumix mdr

avatar XiliX | 

Hmmm très étrange le résultat sur le Xs ?
Même sur mon X, avec HDR activé, j’ai une photo meilleure que celle affichée ici.
Pas aussi criard que celle de Google, mais pas aussi bouché comme ici

avatar alfatech | 

Quand on est fan de photos non réalistes le Pixel est roi....... On se croirait devant la page d'accueil d'un jeu vidéo.

avatar JOHN³ | 

Pour avoir investi dans un pixel 2 il y a quelques semaines je peux confirmer ! La communication de Apple sur son mode photo est à mourrir de rire face à la concurrence

avatar marenostrum | 

entre google et apple ça ne change pas beaucoup. les deux misent sur le logiciel, vu que le font eux-mêmes et pas sur le matériel, où ils faut payer d'autres fabricants de composants. c'est du manque à gagner.

y en a que les chinois (ou les asiatiques) qui misent sur le matériel avant tout, vu qu'ils ne font pas encore eux-mêmes le programme (le système iOS ou Android).

pour ça que les appareils chinois haut de gamme réalisent les meilleurs clichés aujourd'hui. le matériel dépasse le logiciel sur la qualité en photographie. un capteur grand format ou 40 millions de pixels est beaucoup plus performant qu'un capteur petit format et 12 millions de pixels ou moins.

Apple et Google trichent en fait, donnent l'illusion que c'est mieux (chez nous que chez le autres, pas besoin de 20 millions ou 40 millions de pixels pour faire des jolies photos). mais ça reste des effets artificiels.

avatar DamienD7 | 

@marenostrum

En théorie, c’est la taille du capteur qui fera la différence (4/3, micro 4/3, plein format)... Il faut avoir eu un plein format dans les mains pour s’en rendre compte.

avatar marenostrum | 

les pixels aussi le font. et j'en ai eu plusieurs reflex numériques (et argentiques). le premier dès 2001, FinePix S1 Pro. que les smartphones actuels le dépassent largement en qualité photo.

avatar pagaupa | 

@DamienD7

.. Il faut avoir eu un plein format dans les mains pour s’en rendre compte.

Sauf que c’est quasi introuvable dans un compact.

avatar marenostrum | 

chez Sony je crois. mais ça coute très cher.

avatar fte | 

@marenostrum

"mais ça reste des effets artificiels. "

Du temps lointain et perdu de la pellicule, on choisissait sa pellicule pour son rendu typique.

Toute la photographie n’a jamais été autre chose que des effets artificiels.

avatar corben | 

Ça devient n’importe quoi la photo chez certains.
Google et Samsung en tête.
A vouloir trop en faire on se retrouve avec des photos tellement surréalistes que chaque cliché donne l’impression d’être tout droit sorti de Photoshop ?

avatar ideclik | 

Sous acide et produits illicites, mes yeux offrent le même rendu que les photos du pixel... c’est fantastique pour les novices et problématique pour les experts.
Les gens veulent des photos irréelles pour Instagram, Google réponds à la demande. #nofilter #LSDinside

avatar tylerdurden13 | 

Il suffit d'augmenter la clarté et le résultat est bien plus luminueux (mais sera un peu plus bruité) et reste plus réaliste que celui du Pixel.
J'ai juste utilisé une capture d'écran depuis l'iPhone, donc la résolution n'est pas très bonne. https://imgur.com/a/8tbwNB6

avatar iValFR | 

@tylerdurden13

Le résultat n’est pas mauvais du tout
Il manque juste un peu de lumière sur le sujet mais le rendu est déjà plus réaliste que pour le Pixel

avatar DamienD7 | 

@marenostrum

Ce n’est pas La Joconde en soi qu’on connaît mais la prouesse technique des yeux... mais tirée d’un talent naturel!
Après, voilà, je ne pense pas personnellement que le résultat obtenu à partir d’un pochoir peut être qualifié de dessin...
Personnellement, je claque des sommes phénoménales dans des objectifs avec de grandes ouvertures... Pour obtenir une photo de nuit sans retouche!
Et d’ailleurs, toutes les automatisations sur mon iPhone sont généralement désactivées.
Oui, je trouve la photo de Pixel affreuse. La personne, puisque c’est le sujet, apparemment, pas la nuit, surtout pas ?, ressemble à un avatar. Et rien qu’un toucher du doigt sur le sujet aurait éclairci la photo.

avatar marenostrum | 

les tableaux avec des personnages sont les meilleurs, les plus beaux (et les plus chers en enchères). parce que c'est plus difficile de faire un portrait qu'un bouquet de fleurs ou un paysage (tout ça est intégré dans La Joconde, la nature morte et le paysage derrière ne lui sert que de fond), ou du abstrait. le portrait (ou les personnages), montre le vrai talent du maitre.

avatar vince29 | 

La beauté est hautement subjective. Et si j'en crois mes goûts personnels n'a désormais plus grand chose à voir avec la cherté d'une oeuvre (bacon,picasso,munch,modigliani,basquiat...)

avatar 0MiguelAnge0 | 

Et tout cela avec UN objectif alors qu’Apple va courrir pour en mettre 3 sur les prochains (pour justifier le prix?!)
D’un côté le barratin marketing avec un A11 qui a accru ses capacités AI pour des photos plus impressionnantes et de l’autre Google qui communique sur le rendu de son AI...

avatar Arnaudvietnam | 

Les photos risquent d’être toutes identiques.

Puisque l’éclairage et tous les réglages seront décidé par l’algorithme.

avatar marenostrum | 

c'est le défaut principal de la photo numérique et de la photo en général. toute la scène est traité pareil, "aveuglement" avec la même clarté, netteté et détail. sans faire de différence. l'oeil humain ne marche pas pareil, il trie lui, il ne voit que ce qui l'intéresse.

pour ça les photos il faut les traiter en post production ou dès le départ établir la scène. (enlever les éléments de trop ou perturbateurs, les lumières ou ombres qui gênent, ou forcer/diminuer l'éclairage, etc).
tandis que le peintre, à l'ancienne, maitrise entièrement son tableau (ou sujet), il laisse rien au hasard, ou à la main de la technologie (les capteurs japonais). ça fait la différence au final.

avatar Garfield3 | 

Conclusion si vous voulez faire des photos après 20h, et quand je dis photos pas des clichés tirés de the walking dead faut pas prendre un iPhone il faut un pixel ?
Quant a ceux qui parlent de flash gros lol

avatar gsf | 

Ou alors parfois il faut juste savoir renoncer et ne pas prendre de photo...

avatar MachuPicchu | 

@gsf

Ou alors sortir son hybride ou son reflex ?

avatar gsf | 

@MachuPicchu oui bien entendu, c’était dans l’hypothèse où tu dois vraiment (mais alors vraiment...) choisir entre l’un des deux résultats présentés...

avatar bunam | 

La nuit doit rester la nuit !

avatar fte | 

@bunam

"La nuit doit rester la nuit !"

Il faut couper l’éclairage la nuit alors ?

Note bien, la pollution lumineuse est un véritable problème... c’est possiblement une bonne idée donc.

avatar Soner | 

C’est vrai que c’est ultra artificiel.

avatar MachuPicchu | 

Pas très naturel. Le P20 de Huawei est le roi des photos en basse luminosité.

avatar macinoe | 

C'est l'inverse de la nuit américaine quoi,

Comment ça s'apelle ?

Le jour russe ?

avatar lll | 

Au-delà de la qualité des algos de Google, qui est incontestable, j'aimerais savoir si le Pixel permet de prendre la même photo qu'à gauche si le photographe le souhaite. Ou bien ce traitement est-il bien optionnel ?

avatar JOHN³ | 

@lll

Cest optionnel.

avatar Finouche | 

Avec toute cette intelligence artificielle on ne devrait pas voir ce machin tout vert au premier plan.

avatar JOHN³ | 

Beaucoup de mauvaise foi ici, surtout quand Google fais une démonstration de ces capacités logicielle. Faut-il encore reconnaître que le mode nuit n’est pas une obligation, et que quelqu’en soit les conditions les Pixel s’en sortent incroyablement mieux.

Et ce n’est pas moi qui le dit, mais bien les comparatifs professionnels.

avatar GaelW-Mac | 

Le Pixel 3, c’est pas le mobile pour lequel il n’y a pas de pièces détachées et tu dois attendre des mois pour faire même un simple changement d’écran ? ?

avatar tempest | 

Ce n’est pas faux mais dans ce cas on peut créer ce genre d’image a posteriori assez aisément avec Caméra+ et la photo originale reste accessible alors que le Pixel 3 te flingue l’image originale.

Pages

CONNEXION UTILISATEUR