Nvidia améliore les vidéos avec Chrome et Apple devrait faire la même chose

Pierre Dandumont |

Une fonction annoncée au CES 2023 par Nvidia a été activée dans le monde PC : le mode VSR (Video Super Resolution). Il permet d'utiliser les fonctions dédiées à l'IA des dernières GeForce pour améliorer l'image dans les vidéos. Plus spécifiquement, il perfectionne l'upscale (agrandissement). La fonction nécessite les derniers pilotes (531.14), les dernières versions de Google Chrome ou Microsoft Edge ainsi qu'une carte graphique RTX 3000 ou 4000.

Nvidia indique que le mode le plus performant demande idéalement une RTX 3070 ou 4070 et que les RTX 2000 - elles aussi équipées de tensor cores devraient recevoir la fonction dans le futur.

Un résultat pas nécessairement probant mais visible

L'idée est simple : utiliser des algorithmes boostés à l'IA pour améliorer l'agrandissement, à la manière du DLSS ou — chez Apple — MetalFX. Les premiers tests montrent que les résultats varient un peu selon le contexte et évidemment en fonction de la vidéo d'origine. Si vous partez d'une source 1080p sur YouTube, le gain est visible sans être extraordinaire pour un passage en 4K. A contrario, les algorithmes ne peuvent pas faire de miracles sur des vidéos qui sont médiocres à l'origine, comme la première vidéo mise en ligne sur le service de Google.

Le point intéressant, c'est qu'Apple pourrait parfaitement déployer ce genre de solutions dans ses systèmes : les puces Apple Silicon disposent toutes d'un composant dédié à l'accélération de ce genre de calculs, et une bonne partie des Mac Intel peut effectuer les mêmes calculs sur le GPU, même si l'efficacité n'est pas la même. Une adaptation de MetalFX aux contenus vidéo pourrait être un argument intéressant pour la marque, et la solution est très convaincante dans Resident Evil Village.

MetalFX, une nouvelle techno graphique affreusement efficace dans Resident Evil Village

MetalFX, une nouvelle techno graphique affreusement efficace dans Resident Evil Village

Terminons par un bon point : la consommation de cette fonction est assez faible. Sur un PC de bureau, nos confrères de Tom's Hardware ont mesuré une augmentation de l'ordre de 3 W (sur une GeForce RTX 3050) à 8 W (sur une GeForce RTX 4090). Des valeurs assez faibles qui devraient donc permettre de profiter des gains sans déclencher la soufflerie de certaines cartes graphiques.

Tags
avatar Mrleblanc101 | 

Non merci, la batterie pranderait un claque même avec un Neural Engine pour pratiquement aucun gain. A moins qu'on puisse l'activer au cas par cas, mais Apple ne ferait jamais de tel

avatar joneskind | 

@Mrleblanc101

D’après l’article l’augmentation de la consommation est très marginale. Je ne comprends pas votre réaction épidermique.

Sur un upscale de 2K à 4K la technologie ne fait pas forcément de miracles mais ça peut faire le taf avec un écart de résolution moins important.

Par ailleurs on pourrait aussi imaginer un codec vidéo capable d’utiliser ponctuellement cette technologie en adaptant le ratio d’upscale au contexte.

Bien utilisée cette technologie peut être vraiment intéressante.

avatar laclouis5 | 

@Mrleblanc101

Pour le gain en qualité de rendu j’en sais rien, mais sur la consommation ça devra être beaucoup plus faible que la solution de Nvidia grave au Neural engine. La consommation supplémentaire de 3W à 8W du GPU Nvidia ne serait pas acceptable sur un Mac Silicon où la consommation en lecture vidéo est de l’ordre de 3W…

avatar Dimemas | 

pratiquement aucun gain ???

aaaaaah mais oui ! ce n'est pas apple qui a sorti ça

par contre c'est quoi cette fixette sur resident evil village... c'est loin d'être dingue surtout en terme de perf

avatar aelzhu | 

Pour avoir testé, sur les visages le rendu est horrible on dirait un filtre Instagram.
à voir les futures évolutions mais pour l'instant j'ai désactivé cela.

avatar ZunJun | 

Je n’ai pas vu de différence sur la photo…

avatar fhanachi | 

@ZunJun

Honnêtement moi aussi

avatar Pierre Dandumont | 
C'est assez visible sur les détails des briques
avatar pocketalex | 

j'ai beau bouger et bouger les curseurs ... pas de différence notable perceptible

un chouille de poil de cul sur les briques ... et encore

avatar pocketalex | 

si je zoome la page à 300%, ça se voit (un peu) mieux

avatar Dimemas | 

bah oui

avatar misterbrown | 

@ZunJun

Pareil

avatar Moebius13 | 

Pour l’avoir vu en action sur les éléments lointains qui manquent de détails c’est assez bluffant.

Nvidia n’a pas bâti son DLSS pour les jeux en 1 jour, donc laissons leur le temps, mais c’est ultra prometteur.

Ils sont très loin en avance sur la concurrence et on peut imaginer un gros bénéfice sur la bande passante.
On pourrait avoir une image de qualité 4K qui nécessitait 26 Mb/s (sur Apple TV), en ayant 8Mb/s en ADSL (c’est l’ordre de grandeur donné).

Autre avantage, on peut conserver les taux de compression actuels qui ne sont pas géniaux notamment sur YouTube et améliorer sensiblement la qualité d’image.

En bref c’est tout bénéf !

avatar cecile_aelita | 

@Moebius13

« Ils sont très loin en avance sur la concurrence et on peut imaginer un gros bénéfice sur la bande passante. »

Ça c’est un point super intéressant en effet 🙂

avatar lmouillart | 

C'est pas bien évident de voir la différence déjà sur une image fixe, sur une vidéo, j'imagine que c'est encore plus compliqué. A voir...

avatar cecile_aelita | 

@lmouillart

Disons que comme dit plus haut, si ça permet de ne plus envoyer de vidéos de résolution supérieure à du 1080p pour une meilleure qualité, ça veut dire moins de bande passante. Ça peut être intéressant dans ce sens🙂

avatar ⚜Dan | 

“Apple devrait faire de même” ?
C’est pas NVIDIA qui a rendu leurs moteur de calcul compatible Chrome ? Lol

avatar Rapsodan2 | 

8w x 500’000. 🤫🤔🫣

avatar algounet | 

Je ne sais pas ce que le testeur teste, mais l'intégralité des utilisateurs ont une augmentation drastique des Watts.
Sur une vidéo en 1080p60fps plein écran et un écran 1440p, ma RTX3080 passe de 45 à 340W en qualité 4, 85W en qualité 1.
C'est très dépendant de la qualité de la vidéo source, une vidéo en 30fps et en 720p consommera beaucoup moins, et de la taille de la fenêtre.
Ca ne s'active pas dans certains cas, par exemple une vidéo 1080p sur un écran 1080p, ou si la fenêtre de la vidéo est plus petite qu'un certain % de l'écran.

Sinon le résultat ressemble à un filtre adoucissant, c'est immonde. Ca accentue aussi bizarrement le grain. Peut-être sur des films d'animation on peut avoir quelque chose de correct.

CONNEXION UTILISATEUR