Adobe : retour sur la démo de défloutage dans Photoshop

Florian Innocente |
Adobe est revenu sur la démonstration d'une possible future fonction de défloutage dans Photoshop. Présentée dans le cadre de la conférence MAX 2011, elle avait été filmée mais la qualité de la vidéo ne permettait pas d'apprécier le résultat.

Pour rappel, l'objectif est de rendre leur netteté à des images, mais aussi des textes, sortis flous à la suite d'un mouvement. L'algorithme corrigera donc des flous de bougé, mais pas une mauvaise mise au point. Le plug-in utilisé pendant la démo analysait l'image et tentait de définir le mouvement de l'utilisateur qui avait généré ce flou (lire Photoshop : demain le défloutage en un clic). Deux images avant/après ont été mises en ligne pour montrer concrètement ce que cela donne (cliquez pour agrandir).

Plazasmall



textesmall


Une autre (ci-dessous) montre les limites de cette technologie dans son état actuel. L'image de cette personne avec son chien ne présente pas de contours suffisamment précis pour être défloutée. Le résultat le montre, l'image traitée n'est guère différente de l'image source. Autre situation dans laquelle l'algorithme est à la peine, si l'on bouge pendant que l'on photographie une personne en mouvement. Le sujet aura du mal a être déflouté.

bluragain


Un contexte où cette technologie peut être utile dès à présent, est celle des enquêtes policières explique Adobe. Par exemple lorsqu'un enquêteur doit déflouter une simple plaque d'immatriculation ou un numéro de téléphone. Mais de façon plus générale, cette fonction est encore loin de pouvoir répondre à tous les cas de figure. Il ne faut pas espérer la voir rejoindre Photoshop dans l'immédiat. Une vidéo de bien meilleure qualité de cette démo est maintenant visible sur Adobe TV.

Tags
avatar Trillot Bernard | 
Il reste que le résultat sur la première photo est étonnant!!
avatar chris69photos | 
Perso, je reste ultra sceptique sur la 1ère photo : si l'on prend l'enseigne Oakley , je me demande bien comment l'algorithme à pu déterminer les lettres exactes sans se tromper d'une seule lettre
avatar liocec | 
Avis partagé. Je veux bien que les mathématiques soient forts, voir très forts, mais de là a être "intelligents" et traiter l'image comme ça... ça me laisse dubitatif !
avatar ziedjo | 
@ chris69photos : justement, moi j'ai l'impression de lire "Bakley" et pas "oakley". Mais je reste quand même sceptique aussi, ne serait-ce que pour les visages, ou les buses de fontaine au sol. Idem pour les textes dans l'image 3, ça me semble trop "beau" pour être vrai tout ça... Mais je ne crie pas au fake non plus : on est tous les jours étonnés de ce qu'on peut faire, je demande juste à voir ce que ça va donner en production.
avatar Arnaud de la Grandière | 
hommes de peu de foi… l'algorithme gère le "flou caméra", c'est à dire lorsque la caméra bouge au moment de la prise de vue. L'algorithme déduit le mouvement de la caméra (on voit clairement le déplacement réalisé par l'objectif dans la démonstration en vidéo) et applique à toute l'image un déplacement inverse pour arriver à la source, ce qui permet de déflouter des zones particulièrement difficiles à lire, puisqu'il s'agit d'un défloutage global.
avatar agarnier | 
Ca va devenir difficile de rater une photo...
avatar ErGo_404 | 
[quote]liocec [17/10/2011 11:09] via MacG Mobile Avis partagé. Je veux bien que les mathématiques soient forts, voir très forts, mais de là a être "intelligents" et traiter l'image comme ça... ça me laisse dubitatif ![/quote] Il ne devine pas les lettres pour les remplacer, il devine comment le flou a été obtenu (flou de déplacement, problème de focus), et il tente d'appliquer un effet qui "inverse" le processus. Forcément il y a des infos qui sont extrapolées, mais pas d'OCR.
avatar USB09 | 
Une boue de pixel reste une boue de pixel. Chercher intelligemment a en voir les méandre c'est de la religion, ou enfoncer des portes ouvertes. On peut rendre une image un peu plus net mais trouvez tous les contours d'un visage, j'en doute. Je n'y crois pas une seul seconde. Ou alors on m'aurait menti.
avatar Flyingbike | 
[quote]Une boue de pixel reste une boue de pixel. Chercher intelligemment a en voir les méandre c'est de la religion, ou enfoncer des portes ouvertes. On peut rendre une image un peu plus net mais trouvez tous les contours d'un visage, j'en doute. Je n'y crois pas une seul seconde. Ou alors on m'aurait menti.[/quote] a usb09 et tous les sceptiques : voir l'explication de nonoche. C'est une technique complexe mais très utilisée en microscopie, en astro, voire en photo. Il s'agit de déterminer le vecteur de bougé a partir de points suffisamment contrastés dans la photo, puis d'appliquer le vecteur inverse. Renseignez vous sur la "DECONVOLUTION" avant de penser a un complot... D'ailleurs je ne vois pas en quoi c'est révolutionnaire... Peut être la simplicité de mise en oeuvre, ou un algo plus efficace ?
avatar lukum | 
Un bougé n'est jamais rien d'autre qu'une translation. Le plugin analyse vraisemblablement les pixels pour repérer les translations et les rassembler à leur point d'origine. Ce n'est pas mystérieux, mais sans doute plus difficile à réaliser qu'à dire! Je me réjouis de tester ce plugin, j'espère bientôt.
avatar BitNic | 
Il est tellement plus facile de partir d'une image nette pour la rendre floue que dans le 1er exemple c'est à croire que les images auraient été inversées... afin de nous faire croire que... tout est possible !!! Mais l'affaire est à suivre si cela est disponible un jour pour tout le monde.
avatar USB09 | 
@Flyingbike : On peut inverser une arythmetique mais si un capteur ne prend que ce qu'il peut donc une image floue, comment en deviner les tracés ?
avatar grofbd | 
@ Flyingbike : Merci de donner ces précisions. Se renseigner avant d'émettre une critique négative me semble la première chose à faire, en effet. Pour une critique positive, ça fonctionne bien également ! :-) Adobe ne révolutionne rien, ils tentent d'intégrer des outils qui pourraient nous permettre de gagner un peu de temps lorsque nous avons besoin de rattraper une photo très abimée, très floue etc. De là à imaginer traiter des lots d'images et photos, je pense qu'il faut être réaliste, une formule mathématique accusera rapidement ses limites mais l'idée est sympathique...
avatar youpla77 | 
@lukum : absolument. D'ailleurs dans la vidéo on voit à un moment le tracé du "bougé" (blanc sur fond noir) à 2'14'' sur la vidéo.
avatar Flyingbike | 
@usb09 : Regarde bien, lors d'un flou de bougé, on voit le même objet plusieurs fois en surimpression. De la même façon que pour faire un panorama a partir de plusieurs photos, un logiciel peut détecter ces points et donc déduire la trajectoire.
avatar ceddie | 
Le défloutage sera bientôt de l'art moderne ;) Je trouve cette fonction géniale !
avatar USB09 | 
@Flyingbike : J'y croirait quand j'aurai mon photoshop avec la fonction dedans. Là, c'est plus de la pub. Ou la série des experts. Sincèrement de serait bien qu'adobe revoit son interface, façon usine a gaz, que nous balancer ces trucs qui ne vont jamais servir, à l'heure des appareils mobiles HD.
avatar USB09 | 
@ceddie : C'est l'inverse le Tilt-shift n'a jamais été aussi a la mode. Dire que je savais faire ce truc il y a longtemps mais n'était pas encore a la mode.
avatar Ali Baba | 
"Il ne faut pas espérer la voir rejoindre Photoshop dans l'immédiat" C'est bien la peine de la présenter alors... Quel intérêt ? La technologie en soi n'est pas neuve, le seul intérêt était de la rendre dispo ; mais s'ils ne comptent pas le faire je ne vous vraiment pas pourquoi ils ont donné cette présentation.
avatar fromdisco | 
L'immeuble en haut à gauche est toujours aussi ondulé !!
avatar tunsty | 
Pour ceux qui ne croient pas en cette méthode je leur propose de tester le programme deblur.exe de Jiaya Jia en autre disponible ici : http://www.cse.cuhk.edu.hk/~leojia/programs/deblurring/deblurring.htm Même sans modifier les paramètres par défaut. Voici l'image originale : http://img846.imageshack.us/img846/8632/abce.png Et le résultat : http://img542.imageshack.us/img542/8956/abcdf.png
avatar YARK | 
Pour revenir sur ce traitement d'image, je me rappelle qu'il y a 1 an ou 2, des mathématiciens avaient aidé la police de je ne sais plus quel pays à démasquer un pédophile qui se montrait sur internet avec sa photo qu'il avait dû "travailler" avec un effet spirale afin qu'il soit méconnaissable. Manque de bol pour lui, son portrait avait pu être "recalculé" en "recalculant" l'effet inverse de la spirale. Donc non, cela ne m'étonne pas. Mais c'est impressionnant. + les démos de Siri en ce moment, on nage en pleine science-fiction, j'attends plus que la téléportation pour éviter les feux rouges ;-)
avatar grofbd | 
usb09 : changer l'interface ? Elle a sacrément évoluée depuis les débuts. Je suppose que tu parles plus de "la philosophie logiciel", bien plus que d'ergonomie ? D'un autre côté, il y a toujours la version iPod/iPad (qui n'est qu'un gadget, une application), et même ici, cette "philosophie" est la même : un outils > une fonction etc. Je suppose qu'il y a certainement moyen de rendre l'interface plus aguicheuse, mais vu les possibilités du programme, va bien falloir les coller quelques part les menus, panneaux etc. Et puis, les gens qui travaillent avec Photoshop depuis des années, va pas falloir trop les sortir de leur sentier balisé, ne serait-ce que pour le temps d'adaptation, qui, selon les cas, peut représenter énormément de temps, et donc, beaucoup d'argent... Au boulot, je n'ai finalement que peu de temps à accorder à un changement radical d'ergonomie. Mes clients, eux, n'en ont pas du tout (enfin c'est toujours ce qu'ils disent :-))...
avatar Goldevil | 
Je comprend votre scepticisme mais il y a flou et flou. Dans le cas du flou du a un mouvement de l'objectif, on peut considérer qu'il y a plusieurs images nettes superposées. Si l'on connaît le mouvement réalisé on peut effectivement recomposer l'image d'origine. En gros, il faut se dire que dans un flou de mouvement, toutes les informations sont dans l'image mais un peu mélangée. Comme on arrive à déduire comment elle on été mélangées, on peut remettre tout en ordre... dans une certaine mesure. Pour bien marquer la différence avec les séries policière à la mode, dans ces dernières, les ordinateurs parviennent à trouver des informations qui n'existent pas ! Par exemple une image fixe d'une plaque de voiture, hyper pixelisée. Et hop, magie ! L'algorithme est capable de "d'inventer" les informations manquantes. Je suppose qu'elles étaient cachées derrière les pixels. Par contre, à partir d'une vidéo, c'est-à-dire un ensemble d'images de la plaque d'immatriculation, il est effectivement possible d'améliorer la résolution artificiellement. Et là on utilise des méthodes de calcul utilisées en astronomie. L'étape suivante sera d'offrir à ma fille un appareil photo qui intègre cette fonctionnalité.
avatar Dad | 
Sans être expert, effectivement, je trouve beaucoup plus impressionnante la technologie de reconnaissance faciale que celle-ci. On calcule un mouvement, on l'inverse et tadam. Comme dit précédemment, évidemment plus facile à dire qu'à faire, mais je trouve qu'on utilise dès aujourd'hui des technologies qui me bluffent bien plus encore ! Un peu de mal à comprendre les dubitatifs, là.
avatar grofbd | 
@ Dad : En mode gros lourd je dirais que peut-être que les dubitatifs n'utilisent ou ne savent pas utiliser Photoshop ? :) En mode normal, je n'en sais fichtre rien mais au moins ça fait parler, et c'est déjà pas si mal !
avatar Liam128 | 
[quote] Sincèrement de serait bien qu'adobe revoit son interface, façon usine a gaz, que nous balancer ces trucs qui ne vont jamais servir, à l'heure des appareils mobiles HD. [/quote] Tu préfères l'interface de GIMP ? Et je ne vois vraiment pas le rapport entre le HD et le flou de bougé... j'ai un superbe compact haut de gamme 16MPixels avec stabilisateur optique et capteur "intelligent" (capable de faire des panoramas, de la 3D, du HDR, en faisant plusieurs prises à la suite, et de filmer en 1080i), n'empêche que si je bouge pendant la prise, ça fait un flou de bouger, y a pas de sorcellerie... Et y a pas de sorcellerie non-plus à détecter dans quelle direction le bouger s'est fait et à supprimer les informations présentes en surimpression en se basant sur le point de départ ou d'arrivée (selon ce qui est le plus net/contrasté).
avatar EBLIS | 
Et si c'était simplement de la triche : la photo soit disant traitée est en fait la photo de départ à laquelle ils ont rajouté des filtres, un genre de ctrl z et hop, tout le monde y voit du feu. En photographie, les éléments non photographiés ne peuvent pas être devinés quelque soit l'algo de traitement. Dans la photo avec la foule, même les articles dans les vitrines sont devenus nets, c'est absurde... Goldevile dit :"Je comprend votre scepticisme mais il y a flou et flou. Dans le cas du flou du a un mouvement de l'objectif, on peut considérer qu'il y a plusieurs images nettes superposées." Non, on ne peut pas considérer qu'il y a plusieurs images car les photosites n'enregistrent pas les étapes qui ont permis de le sensibiliser mais bien l'accumulation. Ou du moins les technologies actuelles ne le permettent pas encore de le faire. On peut aller plus loin dans l'explication et ne pas considérer qu'une photo soit prise au 1/4000 ou même au 1/500 ème mais qu'on la prennent en pose longue. Pendant 20 minutes vous prenez la photo d'une carrefour , au final vous aura une bouillie de lumière dans un mouvement horizontal : aucun algo ne pourra traiter votre image et vous ressortir toutes les photos des voitures passées devant l'objectif pendant les 20 minutes.
avatar tunsty | 
EBLIS, lis mon message plus haut.
avatar zoubi2 | 
"[i]Dans le cas du flou du a un mouvement de l'objectif, on peut considérer qu'il y a plusieurs images nettes superposées[/i]" (Goldevil) Et, de fait, si on regarde bien les images originales, on a bien l'impression de deux images superposées mais décalées. Auquel cas pas de pb pour déconvoluer. Ce qui m'ennuie, c'est que MES photos floutées dues à un bougé ne ressemblent pas à deux images décalées... C'est flou de chez flou, c'est tout. Mais va savoir... A suivre à coup sûr. Sans doute pas une révolution conceptuelle mais une fonction bien pratique. Je ne pense pas qu'Adobe puisse s'amuser à présenter une tricherie grossière.
avatar grofbd | 
Nous sommes bien d'accord qu'Adobe a bien "choisi" ses images pour la démo. En attendant, ce genre de flou, nous l'avons tous obtenu une fois ou deux en se disant, "merde, elle aurait pu être vraiment chouette cette photo..."... En y regardant de plus près, on constate que l'image "finale" est vraiment très laide, mais bon, qui tente rien n'a rien. Même si cet algorithme reste qu'un gadget dans Photoshop, c'est également par petites touches que les choses avancent. Il n'y a pas que les "révolutions"... Un peu comme dans la vie en somme. :) @ EBLIS : je ne suis pas photographe, du coup...? Par contre, si un "infographiste" peut restaurer une photo en se basant sur ce qu'il a devant les yeux ou non (et il y a des mecs vraiment fortiches dans ce domaine), je pense que cet algorythme d'Adobe peut très bien "retrouver" des "ressemblances" sur l'image floutée, les comparer et reconstituer assez fidèlement une image assez proche de ce qu'elle aurait pu être.
avatar marcplemay | 
Moi ce que je ne comprends pas, c'est pourquoi ça ne marche pas sur la troisième photo... au moins sur l'arrière plan (le bâtiment avec les fenêtres). Parce que là, il y a - contrairement à ce que je peux lire juste au dessus - "des contours suffisamment précis pour être défloutés" me semble-t-il. J'ai tout faux là ?
avatar BitNic | 
@ Kinky : "Ça fonctionne visiblement sur un type très particulier de flou de mouvement." Et pour moi alors, ça le fera ??? Car je suis atteint de Parkinson et je picole comme un trou...
avatar puccini | 
C'est pas révolutionnaire, ça fait 5 ans qu'ils font ça dans "Les Experts" :-D ok je ->[ ]
avatar Anonyme (non vérifié) | 
Je confirme les infos de Nonoche et Flyingbike. Le nom de la technique est bien "déconvolution". J'ai effectué un projet dessus quand j'étais élève ingénieur... il y a 30 ans, c'est donc une technique bien connue et largement éprouvée en astronomie et en police scientifique. Ce qui est étonnant c'est qu'elle ne soit pas parvenue plus tôt au grand public. Il faut dire que ce n'est pas brevetable, étant connu de tous dans le milieu du traitement d'image (et non celui de la retouche). Pour les curieux cela consiste à prendre la transformée de Fourier de l'image, à la diviser par celle de la fonction de transfert (correspondant à l'altération) puis à prendre la transformée de Fourier inverse. C'est effectivement spectaculaire, mais il n'y a rien de magique la dedans : c'est du calcul pur avec un algo bien connu (cherchez déconvolution sur Google et vous trouverez une abondante littérature et exemples) Le problème est de déterminer la fonction de transfert du flou, ce qui peut s'avérer délicat si le flou n'est pas régulier et même impossible s'il n'est pas uniforme, d'où les images pour lesquelles cela ne marche pas. C'est du même accabi que décrypter un message connaissant l'algo de cryptage. Évidemment le message décrypté est beaucoup plus lisible qu'encore crypté, mais il n'y a pas de magie. La science de traitement du signal est juste très avancée. Cela demande quand même pas mal de puissance de calcul, mais les ordis n'en manquent pas aujourd'hui. En plus cela permet de refaire la mise au point !!! En effet la fonction de flou d'une mauvaise mise au point est bien connue (fonction de Bessel). Mais Adobe dit ne traiter que les flous de mouvement, du coup je me demande s'il le font par déconvolution, à moins que déterminer les paramètres d'un flou de mise au point soit trop compliqué ou trop long (itérations successives). Bonne journée à tous
avatar Liam128 | 
[quote]Même si cette fonction pourra améliorer quelques clichés, pour la majorité des flous qui sont dû a un mauvais réglage de l'autofocus, cette fonction ne servira à rien. [/quote] Ça a clairement été expliqué par Adobe : cette fonction ne concerne que les flous de bouger, pas les flous causés par un problème de mise au point. srclient dit d'ailleurs que corriger les flous de mise au point est en théorie possible, et je lui fais confiance il a l'air de s'y connaitre, mais ça n'est visiblement pas ce sur quoi Adobe s'est penché, et ils n'en font pas de mystère. Tout comme Adobe ne fait pas de mystère que leur algo peut corriger certaines images mais que d'autres peuvent être trop "abimées" pour être récupérables, même avec un flou de bouger.
avatar Anonyme (non vérifié) | 
@ Kinky Les pixels "perdus" ne sont pas perdus, ils sont seulement mélangés avec leur voisins. Si on sait comment ils ont été mélangés, ce qui est le cas dans un flou de bougé pur et régulier ou de défaut de mise au point pur, on peut les "démélanger" par déconvolution (voir mes explications plus haut).
avatar sams | 
ou alors cette affaire n'est que de la publicité déguisée pour Oak.., Skeche..., Gues..
avatar lolo-69 | 
Quand on voit ce que fait une stabilisation optique (Analyse inertielle du tremblement, de son amplitude et de sa fréquence, et de sa direction, le tout je ne sais combien de fois par secondes, et appliquer un mouvement inverse à un groupe optique correcteur, en temps réel)... Il ne doit pas être sorcier pour un algo de détecter en abscisse et ordonnée, sur une image fixe, un déplacement des pixels (X-pixels en latéral, X en hauteur) et de reconstituer l'image tant que le point de départ du bougé, sa direction et sa fin sont identifiables. Je me souviens aussi de cette image en spirale que les flics ont reconstitué, ce parallèle cité plus haut est et certainement autrement plus complexe à mettre en œuvre (mouvement de translation). La correction des aberrations chromatiques agit un peu selon le même principe, en réalignant les pixels des couleurs mal superposées. Je doute en revanche qu'il soit possible de reconstituer un flou de MAP, l'info étant absente dans ce cas...
avatar bugman | 
Super impressionnant, oui. :) Je ferais certainement la maj vers la CS6 (enfin, suivant mes maigres moyens). Je vais shooter comme un porc ! YES !
avatar Lemmings | 
@Kinky : Le remplissage automatique de Photoshop 12 a été présenté comme "magique" et à l'utilisation, il l'est ! Comme quoi !
avatar v1nce29 | 
Bon pour éviter de parler dans le vide, faites chauffer vos Google sur "blind deconvolution" La déconvolution simple c'est trop trivial :) http://cs.nyu.edu/~fergus/research/deblur.html avec le code matlab pour expérimenter pour les plus téméraires http://www.maxent.co.uk/examples.html @ lolo69: [quote] Je me souviens aussi de cette image en spirale que les flics ont reconstitué, ce parallèle cité plus haut est et certainement autrement plus complexe à mettre en œuvre (mouvement de translation). [/quote] Perdu, c'est bien plus facile :) Tu twirles dans l'autre sens. Le radius se détermine à l'oeil nu, après y a juste à doser la force de l'effet. @Liam128 [quote] Ça a clairement été expliqué par Adobe : cette fonction ne concerne que les flous de bouger, pas les flous causés par un problème de mise au point. srclient dit d'ailleurs que corriger les flous de mise au point est en théorie possible, et je lui fais confiance il a l'air de s'y connaitre [/quote] La correction des flous de mise au point t'en as déjà dans delicious library (pour les isight première génération) Sinon voir http://www.maxent.co.uk/example_2.htm @Kinky [quote] Pour le reste, un pixel est récupérable ou pas. Dans le premier exemple un algorithme le permet car les pixels sont identifiables et donc récupérables (en partie seulement), c'est même visible à l'oeuil nu [/quote] http://www.maxent.co.uk/example_1.htm Tu vois des pixels identifiables toi ;) @srclient [quote] Les pixels "perdus" ne sont pas perdus, ils sont seulement mélangés avec leur voisins. Si on sait comment ils ont été mélangés, ce qui est le cas dans un flou de bougé pur et régulier [/quote] Ca fonctionne aussi pour des flous de bougés non régulier (pas une simple translation). cf mes sources
avatar liocec | 
@Flyingbike : 'Renseignez vous sur la "DECONVOLUTION" avant de penser a un complot...' Bin voyons... S'il y a flou, c'est que le temps d'exposition est plus long que le déplacement de la caméra ou alors s'il y a flou, le temps d'exposition est plus long que le déplacement des différentes personnes prises en photo. Si toutes les personnes se déplaçaient exactement dans le même sens, on aurait un même vecteur à appliquer à chaque point, hors cet aspect est purement ALÉATOIRE... Donc, soit on est parti d'une photo "normale", que l'on a floutée puis présentée comme un original, soit la photo à une exposition très rapide (mode sport) et l'on a subit un flou par un déplacement encore plus rapide de la caméra (choc sur la main). Dans les 2 cas, le processus de informatique est efficace, mais ramené à la réalité de tous les jours, ce processus ne peut pas s'appliquer.
avatar liocec | 
@EBLIS : 'Pendant 20 minutes vous prenez la photo d'une carrefour , au final vous aura une bouillie de lumière dans un mouvement horizontal : aucun algo ne pourra traiter votre image et vous ressortir toutes les photos des voitures passées devant l'objectif pendant les 20 minutes.' C'est exactement ça, dans l'image il manque le paramètre temps. Un point enregistré pendant 100 ns en début de prise ne peut pas être différencié d'un même point enregistrer pendant 100 ns en fin de prise : on dit qu'ils ont le même poids. Dans le cas présent, l'algo mathematique est certes fonctionnel, mais uniquement dans des cas très précis.
avatar Goldevil | 
A tous le détracteurs d'Adobe et de Photoshop en particulier, je leur propose simplement de se documenter un peu (il y a des liens intéressants dans les commentaires) et d'essayer cette fonctionnalités avant de dire qu'elle ne fonctionne pas et que c'est une supercherie. Et pourtant je n'utilise pas Photoshop ! Comme dit précédemment, la technique fonctionne même si elle n'est pas révolutionnaire et qu'elle a des limites. Il est évident que l'entropie dans l'exemple ridicule d'une prise de vue de 20 minutes sur un carrefour est telle qu'elle empêche toute reconstitution. Néanmoins, les flous de bouger sont en général de déplacement très courts de quelques % de l'image. De plus la vitesse de déplacement n'est pas linéaire avec un maximum de vitesse à mi-course (activation minimale des photosites) et des points d'arrêt en début et fin de course (activation maximale des photosites). Mathématiquement, il est bien possible d'améliorer la visibilité de l'image. Par contre pour les flous de mise au point je suis plus sceptique sur les performances de l'algorithme, car il s'agit d'une diffusion gaussienne dans toutes les directions. Dans le flou de bouger, l'ensemble des photosites ont été impressionnés avec le même décalage, à la même vitesse. Comme c'est précisé dans l'article, si des objets sont en mouvement, l'algorithme est mis en difficulté. C'est logique car du coup on a un autre flou de bouger, dans une autre direction et sur seulement une partie de l'image. Attention également à ne pas confondre avec la stabilisation optique qui bouge soit le capteur soit les lentilles des manière à compenser le mouvement. En gros on tremble, mais le capteur pas.
avatar macoupc | 
Moi je suis sûr qu'ils ont triché en "floutant" une image nette et faisant croire le contraire... Ça je sais faire ! ;-)

CONNEXION UTILISATEUR