OpenAI n’est pas le seul acteur à proposer des modèles d’IA pouvant générer des vidéos. ByteDance, l’entreprise chinoise derrière TikTok, a récemment présenté Seedance 2.0 : un nouveau modèle axé sur le réalisme pouvant créer des scènes complexes.
Le modèle accepte du texte, des images, de l’audio et de la vidéo comme entrées. Il peut donc combiner des instructions en langage naturel avec des références multiples allant jusqu’à 9 images, 3 segments vidéo et 3 fichiers audio. Cela lui permet de réutiliser les cadrages et les mouvements, ainsi que les ambiances sonores ou le style.
Les développeurs mettent en avant un net bond en qualité par rapport à la version 1.5. Le modèle s’améliore surtout dans les scènes difficiles avec des interactions entre plusieurs sujets ou des mouvements complexes. Il se débrouille mieux pour éviter de casser la continuité et éviter les artefacts ou autres petites bourdes non désirées. Le modèle peut générer des clips vidéo avec audio d'une durée maximale de 15 secondes.
This was a 2 line prompt in seedance 2. If the hollywood is cooked guys are right maybe the hollywood is cooked guys are cooked too idk. pic.twitter.com/dNTyLUIwAV
— Ruairi Robinson (@RuairiRobinson) February 11, 2026
Les internautes n’ont pas traîné à essayer l’outil et générer une vidéo de bagarre entre Brad Pitt et Tom Cruise dans une (fausse) scène de film. On a également pu voir ce que donnait le modèle dans un style manga ou pour imiter des vidéos d’influenceurs. Le modèle n’a visiblement pas trop de problèmes pour créer du contenu protégé par le droit d’auteur, ce qui était également le cas de Sora 2 à son lancement avant qu’OpenAI ne serre la vis.
En pratique, Seedance 2.0 devrait être accessible dès aujourd’hui via la plateforme d’IA maison Dreamina AI ou l’assistant IA Doubao. On peut imaginer qu’il finira par infuser dans le logiciel de montage CapCut, mis en avant sur TikTok et faisant la part belle à l’IA.

















