H.265, VP9, AV1… Des codecs qui coûtent cher

Mickaël Bazoge |

Le secteur de la diffusion de vidéos en streaming est tout proche d’un grand bouleversement. Jusqu’à présent, cette industrie n’avait guère plus qu’un codec à gérer, le H.264/AVC. Les choses vont changer très rapidement, Apple ne faisant aucun mystère de son support du H.265/HEVC, qui sera la norme dans iOS 11 et macOS High Sierra ; du côté de Google et d’Android, on supporte le codec VP9, tandis que l’Alliance for Open Media a son AV1 libre et gratuit, supporté par les plus grands noms de l’industrie tech.

HEVC contre H.264 : le fichier de gauche pèse deux fois moins lourd que celui de droite pour une qualité équivalente.

La fragmentation est donc en marche, les diffuseurs devant supporter au moins trois codecs : H.264, H.265 et VP9, en attendant l’AV1 qui devrait être lancé en 2019. Pour l’utilisateur et les tuyaux des opérateurs, les atouts des nouveaux codecs sont évidents : les fichiers pèsent beaucoup moins lourd à qualité égale. En revanche, c’est un casse-tête pour les diffuseurs qui vont devoir consacrer beaucoup de ressources pour encoder leur contenu dans ces formats.

Pour les serveurs, le coût d’encodage en H.265 et en VP9 est multiplié par cinq. Pour l’AV1, ces coûts sont même multipliés par… 20 ! Et il faut aussi prendre en compte les différents niveaux de qualité : aux SH, HD et 4K, il faut ajouter le HDR, le 10-bit, et un framerate plus élevé dans certains cas. Or, il faut multiplier par 5 les coûts serveur pour passer du 1080p SDR au 4K HDR. Et puis il y a également les contenus 360° qui sont de plus en plus consommés et qu’il faut bien prendre en charge également.

Selon Dan Rayburn, analyste pour StreamingMedia, les diffuseurs de contenus en streaming pourraient bien subir une multiplication par 500 de leur facture d’encodage dans les prochaines années en raison de la prise en charge des nouveaux codecs, de la qualité d’image et des vidéos 360°. Évidemment, l’industrie a commencé à réfléchir sur le sujet en exploitant une technologie qui commence à prendre racine dans les fermes de serveurs, le FPGA (Field Programmable Gate Array) ou encore circuits logiques programmables.

Plus souples que les processeurs et processeurs graphiques, ces circuits sont déjà installés dans les centres de données d’Amazon, de Baidu ou encore chez OVH, où on estime d’ailleurs que « 2017 sera l’année du déploiement » de cette technologie.

Tags
avatar Espcustom | 

Quand vous dites que ça coûte 5x plus d'encoder en 265, ça veut dire quoi exactement? À quel niveau cela coûte plus cher, qu'est ce qui coûte plus cher?

avatar macinoe | 

A machine égale, l’encodage prend 5 fois plus de temps, consomme 5 fois plus d’énergie et coûte donc 5 fois plus cher.

Autrement pour aller plus vite et consommer moins d’énergie, il faut investir dans du matériel plus performant et ça a aussi un coût.

avatar xDave | 

On avait exactement le même débat il y a quelques années au moment du h264. Et la balise HTML VIDEO n'existait pas, impliquant des bidouilles JS pour savoir qui a Flash, qui a WMV, qui a du h264 natif etc...
Et évidemment, les gars là-haut , nous refont le coup de la fragmentation parce que c'était évidemment bien trop simple d'avoir un seul et unique Codec.
Donc ça coûtait en place (1vidéo x N codecs x N résolutions), et en temps d'encodage forcément.

avatar Marco787 | 

Cet article présente des thématiques très intéressantes (guerre des formats), qui attirent le lecteur. Mais le contexte, le raisonnement et les conclusions posent grandement question.

Il est excellent de lire d'autres sites spécialisés (streamingmedia.com, en l'occurence) et d'en faire le partage ici, mais encore faut-il reprendre tous les éléments pertinents. (Et aussi, dans la mesure où l'article recopie verbatim de nombreuses phrases, idées et expressions de http://blog.streamingmedia.com/2017/08/cloud-hardware-acceleration.html, citer l'auteur d'origine, et ne pas faire apparaitre cet article comme un original.)

La démonstration part de "l'observation" que "jusqu’à présent, cette industrie n’avait guère plus qu’un codec à gérer". Mais que les choses vont changer très rapidement avec de nouveaux codecs.

Or, en réalité, ces "nouveaux" codec (HEVC et VP9) sont finalisés depuis de nombreuses années (le HEVC a été ratifié en janvier 2013, il y a plus de quatre et demi !), tout comme les systèmes pour les coder / décoder / diffuser.

Dès lors, comment peut-on dire que jusqu'à présent, cette industrie n'avait qu'un codec, et que maintenant, il va falloir en gérer trois ? (L'article ne donne aucun élément ou explication.)

Considérer que les diffuseurs vont devoir supporter tous ces codecs (nous sommes mi 2017) n'a pour moi pas beaucoup de sens, et ce pour plusieurs raisons. iIs ne l'ont pas fait jusqu'à présent, pourquoi changer ? L'article annonce un autre format pour 2019, soit dans à peine un an et demi : attendre 3 ans pour se lancer dans ces nouveaux formats pour ensuite devoir changer à nouveau et très rapidement après ne semble pas très rationnel. Les diffuseurs peuvent très bien continuer à ne supporter qu'un ou deux format(s), comme ils l'ont fait jusqu'à présent.

Ou attendre de vrais arguments pour choisir le nouveau format. Car il existe un coût clé que l'article ne mentionne pas (et pourtant largement expliqué dans le site sur lequel se base cet article) : celui des licenses. Si le codec HEVC n'a pas supplanté le H.264 et les autres formats malgré ses performances et alors qu'il existe depuis des années, c'est notamment à cause du coût des licenses.

Enfin, les codecs HEVC et VP9 ne sont pas 100% interchangeables, au sens où chacun est mieux adapté à certaines situations : streaming live vs. streaming non-live vs. lecture sur stockage local (sans parler d'autres spécificités).

Pages

CONNEXION UTILISATEUR