Apple a racheté WaveOne, une startup qui utilise l'IA pour la compression de vidéos

Félix Cattafesta |

Apple a racheté la startup WaveOne, spécialisée dans l'utilisation de l'intelligence artificielle pour la compression vidéo. TechCrunch a mené l'enquête et a remarqué qu'une partie des anciens employés (dont l'un des fondateurs) travaillaient maintenant chez Apple. De plus, le site officiel de la boîte a été débranché au mois de janvier. La nouvelle a été confirmée sur LinkedIn par un ancien de l'équipe :

Après presque 2 ans chez WaveOne, nous avons finalisé la semaine dernière la vente de la société à Apple. Nous avons commencé notre aventure chez WaveOne, réalisant que la technologie vidéo d’apprentissage automatique / apprentissage profond pourrait potentiellement changer le monde. Apple a vu ce potentiel et a profité de l’occasion pour l’ajouter à son portefeuille technologique.

Image : WaveOne.

WaveOne est principalement connue pour avoir créé un algorithme de compression / décompression vidéo pouvant analyser le contenu. Celui-ci peut comprendre ce qui est affiché pour donner la priorité à certains éléments attirant l'œil du spectateur, comme les visages ou les textes. Ce procédé permet notamment d'améliorer la diffusion lorsque la connexion est instable ou quand elle se bloque quelques instants, en proposant tout de même une image moins détaillée.

WaveOne affirmait que cette approche offre de réduire la taille d'une vidéo de moitié. L'entreprise a été créée en 2016 et comptait une petite dizaine d'employées. Avant son rachat, elle avait réussi à lever 9 millions de dollars. Les conditions de l’achat par Apple n'ont pas été précisées.

Cette nouvelle acquisition pourrait être utile à Apple pour ses différents services, le plus évident étant la plateforme de streaming TV+. S'il est incorporé, un tel algorithme pourrait permettre à Cupertino de réduire ses coûts de diffusion. Il ne reste plus qu'à attendre de voir comment cette nouveauté sera intégrée dans les logiciels d'Apple.


avatar Yohmi | 

Ouah ça voudrait dire qu'Apple pourrait découvrir des définitions supérieures au 1080p pour ses Special Events ? C'est fou ce que l'intelligence artificielle est capable de faire !

Sinon ça me rappelle ce que fait l'AV1 dans une certaine mesure, qui un peu comme les APN des smartphone Samsung recrée des éléments en s'éloignant complètement de la source mais qui pèse rien avec une quantité de détail impressionnant. Mais je préfère l'approche de l'article, de très loin.
Comme d'habitude, c'est très bien pour les contenus qu'on ne regarde que d'un œil. Pour le cinéma, c'est poubelle comme d'hab, le grain pellicule c'est du premier pixel en haut à gauche au dernier en bas à droite.

avatar Scooby-Doo | 

@Yohmi,

« Ouah ça voudrait dire qu'Apple pourrait découvrir des définitions supérieures au 1080p pour ses Special Events ? C'est fou ce que l'intelligence artificielle est capable de faire ! »

Ironie détectée !

😁

Maintenant, est-ce vraiment nécessaire d'avoir un flux supérieur à de la FHD pour une présentation commerciale ?

👌

« Apple a racheté WaveOne, une startup qui utilise l'IA pour la compression de vidéos »

Et pendant ce temps sur ce forum, certains affirment grâce à leur boule de cristal qu'Apple ne s'intéresse pas à l'IA en général et à certaines applications en particulier !

Alors à moins d'avoir acheté cette startup juste pour enterrer ces technologies, ce qu'Apple n'a pas pour habitude de faire, je pense que Apple s'intéresse de très près aux différentes applications des IA.

Apple ne s'engage pas sur un marché ou n'adopte pas une nouvelle technologie pour être dans la tendance.

Apple crée un nouveau marché ou utilise des solutions innovantes qui la démarque de la concurrence.

😉

avatar mat16963 | 

@Scooby-Doo

Personne ne dit qu’Apple ne s’intéresse pas à l’IA en général, il y en a partout dans chacun de leur produits, de la gestion bas niveau des processeurs aux fonctions plus haut niveau d’analyse de Photos, des modes de concentration, de la recharge optimisée,…

En revanche c’est concernant les modèles de langage génératifs et plus généralement la proactivité et la compréhension de « ce que l’utilisateur veut dire », que le doute est permis, quand on regarde l’état catastrophique de Siri qui n’a fondamentalement pas évolué depuis 2012, mais aussi des apps et services Apple comme Musique dont les suggestions la place auprès des plus mauvais élèves de l’industrie, tout comme le moteur de recherche qui ne retourne aucun résultat s’il y a une petite erreur ou différence de formulation. C’est dans cet usage de l’IA qu’Apple m’inquiète, car à moins qu’elle cache bien son jeu depuis des années, j’ai l’impression qu’une grande quantité de retard a été accumulé, à trop vouloir se concentrer sur leur casque de réalité virtuelle/augmentée…

avatar Scooby-Doo | 

@mat16963,

« […] quand on regarde l’état catastrophique de Siri qui n’a fondamentalement pas évolué depuis 2012, mais aussi des apps et services Apple comme Musique dont les suggestions la place auprès des plus mauvais élèves de l’industrie […] »

👍

Désolé de répondre partiellement à vos nombreuses questions !

1. Je partage vos regrets et nous sommes d'accord sur ces points.

2. Siri est un cas à part compte tenu de comment cela a été implémenté à l'époque. Les solutions utilisées font que le code est difficile à faire évoluer, les commandes sont écrites en dur dans une base de données multilingues, etc. Ce n'était pas une IA avec ML + RNN ! Juste un convertisseur d'ordres vocaux (filtre) en commandes informatiques (console) !

3. Apple Music / iTunes Match / Genius suggestions, ben je ne sais comment c'est organisé et implémenté. À mon avis de façon assez similaire à Siri ! Cela doit fonctionner par mots clefs, chaque morceau de musique pouvant avoir des attributs du type : rapide ; cool ; reposant ; etc. Autant d'adjectifs décrivant ce morceau non pas par son genre musical mais plutôt par son ressenti. Certaines bases de données du type allmusic.com présentent des mots clefs en plus du genre musical.

Apple Music doit chercher des musiques avec un genre musical et des mots clefs similaires.

Apple Music peut aussi faire des liens statistiques d'achats ! Par exemple si un auditeur a acheté cet album, il a aussi acheté cet autre album de tel artiste !

C'est rudimentaire et perfectible effectivement.

4. Pour faire de l'IA, c'est un domaine particulier. En plus il n'existe pas une technologie unique de type IA ! Il y a bien des modèles mais un nombre varié d'applications qui exige autant de compétences. Les personnes expertes dans ces domaines ne sont pas en quantité illimitée !

5. Apple sait se montrer prudente et laisser les autres essuyer les échecs ! Apple n'a pas envie de se prendre un gadin boursier comme d'autres à cause d'une IA qui part en vrille !

👌

avatar whocancatchme | 

@Yohmi

Est-ce qu’un flux 4K compressé avec un algo est vraiment du 4K du coup ?

avatar Scooby-Doo | 

@whocancatchme,

« Est-ce qu’un flux 4K compressé avec un algo est vraiment du 4K du coup ? »

Oui par sa résolution spatiale !

La 4K ce n'est pas une garantie de qualité d'image.

Vous pouvez avoir une image en JPEG avec un taux de compression très faible, une qualité d'image très bonne même si c'est avec pertes minimales d'informations !

La même image avec un fort taux de compression sera vraiment dégradée par rapport à l'original et pourtant c'est le même Codec !

En 4K, vous avez plusieurs profils et taux de compression.

👌

avatar whocancatchme | 

@Scooby-Doo

Oui mais si c’est rempli des mêmes pixels pour compresser ça sert à rien !

avatar Scooby-Doo | 

@whocancatchme,

Ces optimisations par IA ressemble de loin à ceci :

https://www.sony.fr/electronics/televiseurs/x95j-series#:~:text=Le%20Cognitive%20Processor%20XR%20Sony%20analyse%20les%20donn%C3%A9es,lumi%C3%A8res%20%C3%A9cr%C3%AAt%C3%A9es.%20Recr%C3%A9er%20la%20texture%20de%20mani%C3%A8re%20intelligente

L'IA détecte les zones importantes dans l'image et conserve un maximum d'informations et pour les zones moins importantes (arrière-plan, flou de bougé) compresse plus. C'est du ABR / VBR optimisé version IA ! Le H264 et le H265 font déjà celà mais sans IA. C'est moins sexy !

On met l'IA à toute les sauces. C'est marketing et tendance !

👌

avatar mimolette51 | 

Oui mon petit kikoolol qui n'y connait rien. La compression par IA permet d'obtenir des ratios bien supérieur à la compression classique voir énorme sur des trucs comme les Simpsons.

PS : je code de l'IA.

avatar Yohmi | 

@mimolette51
Ça rend aimable comme occupation dis-moi 🤣🤣

PS : c'est bien de s'interroger, la curiosité ça permet d'apprendre, de comprendre, d'évoluer.

avatar whocancatchme | 

@Scooby-Doo

Oui je vois c’était plutôt une réthorique parceque pour moi c’en est pas du coup

avatar Scooby-Doo | 

@whocancatchme,

« Oui je vois c’était plutôt une rhétorique parce que pour moi c’en est pas du coup »

👍

C'est la résolution spatiale qui est garantie, pas le reste !

C'est adapté pour réduire la bande passante par exemple pour de la visioconférence mais aussi pour stocker des vidéos persos ou faire du streaming il me semble.

Sinon :

https://fr.m.wikipedia.org/wiki/DNxHD_codec

https://fr.m.wikipedia.org/wiki/Apple_ProRes

avatar Yohmi | 

@whocancatchme
Il y a toujours un algorithme quelque part dans la compression vidéo moderne quand on y pense ☺️
Et je me souviens notamment d'une scène d'un documentaire animalier distribué exclusivement sur Netflix où des milliers de poissons virevoltent, donnant lieu à une infâme bouille de pixels grâce à la compression vidéo de Netflix, un résultat bien inférieur à une source Blu-ray FHD. Donc on est de toute façon déjà dans ce paradigme où qualité d'image et définition sont dé-corrélés.

La solution telle qu'elle est présentée dans l'article, ça dope ce qui se fait déjà en fait. Là où on va perdre pied, c'est quand on tombera sur ces images recréées, où une bonne partie de la source est convertie en vecteurs avec un emplacement d'élément générique (genre nuage qui se déplace de 20 pixels sur la droite) et là on va arriver dans un univers de compression étrange, où la définition d'entrée n'a plus d'importance.

avatar vicento | 

@Yohmi

Le grain, quel grain ¿ ça fait un moment qu’il n’existe plus.

avatar Yohmi | 

@vicento
À moins de considérer que l'histoire du cinéma s'étend de Vidocq à nos jours, y'a quand même pas mal d'œuvres concernées 🤭 d'ailleurs ces dernières années je trouve que pas mal de restaurations 4K (et même 2K) sont menées dans un esprit de haute fidélité, avec un soin réel apporté à la colorimetrie, la compression et le grain, ce qui fait vraiment plaisir à voir 🙂

avatar hptroll | 

@Yohmi

À l’inverse, j’aimerais bien pouvoir réduire la résolution AppleTV+.
Et dans la foulée réduire la taille de la vidéo grâce à l’IA servira de bonus.

avatar cecile_aelita | 

« WaveOne affirmait que cette approche offre de réduire la taille d'une vidéo de moitié »

Ça c’est une approche qui me plait ! Plutôt que de toujours vouloir aller vers du « plus gros » etc… je préfère largement un approche d’optimisation pour réduire les tailles de fichiers !
En tout cas moi j’adhère totalement à cette approche 🙂.

avatar raoolito | 

@cecile_aelita

ca permettrait aussi de mettre plus gros dans le meme poids aussi ^^

avatar Scooby-Doo | 

@cecile_aelita,

« Ça c’est une approche qui me plait ! »

👍

C'est une approche moins spectaculaire que les IA baratineuses et pourtant c'est bien de l'IA, mais à domaine restreint !

Les IA baratineuses, c'est beaucoup trop casse-gueule comme technologie ! C'est pas vraiment au point et les biais trop difficiles à contenir !

👌

Entre parenthèses, cette compression par IA avec prioritisation des éléments clefs de la scène me fait penser de loin évidemment à ceci :

https://www.sony.fr/electronics/televiseurs/x95j-series#:~:text=Le%20Cognitive%20Processor%20XR%20Sony%20analyse%20les%20donn%C3%A9es,lumi%C3%A8res%20%C3%A9cr%C3%AAt%C3%A9es.%20Recr%C3%A9er%20la%20texture%20de%20mani%C3%A8re%20intelligente

Chez WaveOne, cela se passe à la compression pour réduire encore plus efficacement la taille des fichiers.

Chez Sony, c'est une IA appliquée à l'affichage. L'IA recherche le point focal et réalise une prioritisation des éléments dans la scène en appliquant des traitements différents.

Lorsque l'on applique un filtre de netteté ou de super résolution à un flux de manière globale, cela peut générer des artefacts visuels sur les arrières-plans hors champ de focalisation. Au lieu d'améliorer l'image et sa netteté, cela augmente le grain ou le bruit dans des zones qui devraient être floues par exemple !

👌

avatar cecile_aelita | 

@Scooby-Doo

Personnellement tout ce qui va dans le sens du « baisse de la consommation » « baisse du poids des fichiers » etc etc… ça m’intéresse beaucoup plus que des approches « caméra qui filme en 16K » etc…
Après je comprends que ça puisse plaire aux geeks et aux technophiles … mais je préfère une vision pragmatique et économe des ressources 🙂.

avatar Scooby-Doo | 

@cecile_aelita,

« ça m’intéresse beaucoup plus que des approches « caméra qui filme en 16K »

👍

En fait et pour faire ultra simple, au delà de la 4K, c'est vraiment inutile !

Pourquoi cela ? Parce que les salles de cinéma projettent déjà les films sur très grands écrans avec cette résolution et que personne n'y voit à redire. Plus l'écran est large, plus il faut de recul, et donc moins on est susceptible de remarquer que ce n'est que de la 4K.

De plus, la majeure partie de la post-production est en 2K, quitte à booster l'image en 4K derrière. Les téléviseurs 8K sont moins lumineux que les modèles 4K car chaque pixel est plus petit en 8K. Pour avoir une luminosité équivalente, il faudrait une surface équivalente du pixel, donc des écrans très / trop grand à luminosité égale avec une consommation électrique nettement supérieure !

De toutes les façons, l'UE a la 8K dans son collimateur et elle prête à sortir la sulfateuse !

👌

avatar cecile_aelita | 

@Scooby-Doo

« En fait et pour faire ultra simple, au delà de la 4K, c'est vraiment inutile ! »

Je ne donnerai pas mon avis ici à ce sujet … c’est pas l’endroit idéal 😋🤭

avatar bozzo | 

@cecile_aelita

🤣🤣

avatar Scooby-Doo | 

@cecile_aelita,

« Je ne donnerai pas mon avis ici à ce sujet … c’est pas l’endroit idéal 😋🤭 »

Par hasard, une mauvaise expérience passée sur ce forum où l'on trouve des fanas de 16K ?

😁

L'avenir, ce n'est pas l'augmentation de la résolution mais le HFR ! Personnellement sur mon téléviseur 4K 3D passive, c'est le HFR qui fait vraiment la différence ! J'ai même fait des tests auprès de personnes sans les prévenir. Toutes ont préféré avec HFR sans comprendre pourquoi ! La fluidité et le confort visuel sont nettement améliorés.

👌

avatar cecile_aelita | 

@Scooby-Doo

Je serais beaucoup plus impressionnée le jour où ils nous sortiront une TV de 120 cm en 4K qui consomme 10-15W ! Là on sera sur une vraie révolution pour mon usage 🙂.
Mais je sais que c’est un discours qui passe très mal ici (et les prochains commentaires en seront la preuve 😉).

avatar Scooby-Doo | 

@cecile_aelita,

« Je serais beaucoup plus impressionnée le jour où ils nous sortiront une TV de 120 cm en 4K qui consomme 10-15W ! Là on sera sur une vraie révolution pour mon usage 🙂. »

Franchement, je ne sais si une telle performance est techniquement possible !

Le OLED consomme moins sur des images sombres. Mais la luminosité globale est limitée.

Le LCD consomme constamment à cause de son rétro-éclairage (edge par exemple). La luminosité est supérieure. Compatible 3D, HDR, HFR.

Le LCD mini LED consomme moins sur des images sombres aussi. Chaque zone est rétro-éclairée en fonction des besoins. La luminosité est supérieure. Compatible HDR, HFR.

Le Crystal LED consomme moins sur une image sombre. La luminosité est maximale. Problème son prix inabordable ! Compatible 3D, HDR et HFR.

Vous avez aussi le Q-LED et le QD-OLED ! Le premier consomme autant qu'un LED ; le deuxième consomme autant qu'un OLED. Le Q-LED avait une luminosité supérieure. Maintenant avec les progrès des QD-OLED, la différence tend à se réduire.

Problème : quel écran sera capable de supporter du Dolby Vision dans sa version maximale ? Une luminosité de 10 000 nits !

De toutes les façons, 10-15 W ce n'est même pas suffisant pour l'électronique de commande et la micro-électronique de traitement ! Donc on va oublier la consommation d'affichage.

Je crains que vos désirs ne soient exaucés rapidement.

J'aurais bien une solution technique : regarder par la fenêtre et admirer la vue ! Ça coûte rien et la consommation est inférieure à 10-15 W !

😁

avatar cecile_aelita | 

@Scooby-Doo

« J'aurais bien une solution technique : regarder par la fenêtre et admirer la vue ! Ça coûte rien et la consommation est inférieure à 10-15 W ! »

La solution je l’ai depuis un moment !😋
Ma TV n’a plus été allumé depuis plus d’un an et et je regarde uniquement sur mon iPad 🙂.

avatar Yohmi | 

@cecile_aelita
Jusqu'à présent, les formats de compression vidéo ont successivement été adoptés pour contenir l'explosion de la définition dans des poids raisonnables. Mais on est arrivé à des résultats assez aberrants, où en lieu et place d'optimisation qualitative, le but est d'envoyer la définition la plus grosse, peu importe si la compression détériore la qualité d'image et la rend moins bonne, à débit équivalent, que sa contrepartie en définition plus basse.
Je suis cinéphile, j'ai une grande télé avec plein de pixels. Je regarde en très grande majorité des films en 1080p, et très rares sont les fois où un film en UHD (avec une compression de salon, pas streaming) me fait ressentir que j'y ai gagné quelque chose. Pourtant, sur du streaming, le 1080p est dégueulasse. Il y a vraiment eu une dérive, personnellement je l'attribue à YouTube, qui a lancé des définitions complètement farfelues alors qu'ils ne proposent pas les débits adéquats (et que ça ne serait pas souhaitable pour les raisons écologiques que tu soulignes), ça a tout décalé et faussé la perception des gens.

Avec les téléviseurs 8K sur la sellette (à cause de leur consommation), on va peut-être dans le bon sens. Je me souviens du discours d'un représentant de Samsung qui avait pour rhétorique qu'on arrête pas le progrès, le 8K c'est comme le Full HD et la 4K. Mais il était incapable de démontrer avec son produit quel était le bénéfice en matière de qualité d'image.

avatar valcapri | 

Il me semblait que Netflix utilise le même genre de procédé pour optimiser ses vidéos et le bitrate suivant la vitesse de l’action en analysant la vidéo par machine learning.

avatar raoolito | 

on peut aussi parler de facetime !

avatar Scooby-Doo | 

@raoolito,

« on peut aussi parler de facetime ! »

Ben c'est envisageable et même souhaitable pour réduire la consommation de bande passante par exemple.

Et cela tombe bien, les SoC Apple Silicon sont prévus pour ce type d'IA !

😁

avatar Paquito06 | 

Ca sent la news Pied Piper 😅

avatar _powermike_ | 

Il s’agit de l’ancienne équipe de Pied Piper pour ceux qui ont la réf 😂

avatar Mirov09 | 

@_powermike_
@Paquito06

Je vois encore l’hologramme géant optimisé par l’IA dans le désert 😂😂😂.

avatar Paquito06 | 

@Mirov09

“@Paquito06
Je vois encore l’hologramme géant optimisé par l’IA dans le désert 😂😂😂.”

😅
Ca me donne envie de le binge watcher a nouveau 🥰

avatar makeiteasy | 

Je me vois déjà m’éclater avec une API !

CONNEXION UTILISATEUR