Generez des videos IA a partir de texte, d'images, de references video et d'audio. Reproduisez des mouvements de camera, prolongez des clips et generez automatiquement des effets sonores.
Creez des videos IA en trois etapes simples
Selectionnez texte vers video ou image vers video, puis saisissez un prompt ou importez une image de reference.
Choisissez les parametres disponibles comme le modele, le format d'image et la duree, puis lancez la generation.
Iterez sur les prompts et les parametres, puis exportez selon votre forfait et vos options.
Un flux de travail pratique pour la creation video IA
Utilisez les prompts et les parametres pour guider l'apparence, le mouvement et la structure de vos videos. Les resultats varient selon l'entree et la configuration.
Entrees texte, image, video et audio dans un seul flux de travail — combinez jusqu'a 12 fichiers par generation
Effets sonores et musique generes automatiquement, plus import MP3 pour les references audio
Reproduction de video de reference pour les mouvements de camera, les actions et les effets creatifs
Prolongation video, remplacement de personnages et edition de scenes sur des clips existants
Plans-sequences uniques et synchronisation musicale au rythme pour des resultats professionnels
Entrees texte, image, video et audio dans un seul flux de travail — combinez jusqu'a 12 fichiers par generation
Reproduction de video de reference pour les mouvements de camera, les actions et les effets creatifs
Effets sonores et musique generes automatiquement, plus import MP3 pour les references audio
Les resultats dependent du prompt et des parametres
Seedance 2.0 est un generateur video IA multimodal qui accepte des images, des videos, de l'audio et du texte en entree. Les sections ci-dessous expliquent le fonctionnement de chaque capacite et comment elles s'integrent dans un flux de travail professionnel de creation video.
Seedance 2.0 accepts up to 9 images, 3 video clips (max 15 s total), and 3 MP3 audio files (max 15 s total) alongside a text prompt. You can freely combine these inputs in a single generation. Use the @ symbol in your prompt to assign each uploaded file a specific role — for example, referencing an image for character appearance and a video for camera movement.
This multimodal approach lets you control composition, motion, and tone simultaneously. Instead of relying on text alone, you can anchor the visual style with reference images, guide the rhythm with audio, and define the action with video clips.
Upload a reference video and Seedance 2.0 can replicate its camera trajectory, action pacing, and visual effects in a new generation. This is useful when you have a shot you like — a dolly push, a tracking pan, or a handheld shake — and want to apply the same movement to different subjects or scenes.
Combined with image references for characters and environments, motion replication gives you precise directorial control without describing every frame in text.
Seedance 2.0 can extend existing videos forward or backward. Upload a clip and describe what happens next (or what came before), and the model generates a seamless continuation. This is particularly effective for building longer sequences from short initial generations.
Extension preserves visual continuity — characters, lighting, and camera perspective stay consistent across the boundary between the original footage and the new frames.
You can replace characters or objects within an existing video while keeping the rest of the scene intact. Upload the source video alongside a reference image of the new character, and Seedance 2.0 handles the swap while maintaining motion and background consistency.
This capability is valuable for adapting content across different campaigns, localizing video assets, or experimenting with different character designs without regenerating the entire scene.
Seedance 2.0 generates sound effects and background music automatically. The audio output matches the on-screen action — footsteps, impacts, ambient sound, and musical cues are timed to the visual content. You can also upload reference audio to guide the tone and rhythm.
For music-driven content, audio inputs can serve as beat references. The generated video aligns its cuts, motion, and transitions to the rhythm of the supplied track.
Seedance 2.0 supports one-take long-shot generation that maintains consistent characters, environments, and camera flow across extended durations. You can also generate multi-segment videos and merge them with continuity between cuts.
These features are designed for narrative-driven projects where visual consistency across scenes is essential — product demos, short films, and brand storytelling.
Each generation can be configured with aspect ratio, duration (4–15 seconds), and generation mode. The output is rendered at 720p. You can iterate by adjusting one or two prompt elements at a time, comparing results, and converging on a final direction.
Export options and usage rights depend on your plan. Costs are displayed before generation so you can manage your credit budget across projects.
Seedance 2.0 accepte jusqu'a 9 images, 3 clips video (15 s max au total) et 3 fichiers audio MP3 (15 s max au total) en complement d'un prompt textuel. Vous pouvez combiner librement ces entrees dans une seule generation. Utilisez le symbole @ dans votre prompt pour attribuer a chaque fichier importe un role specifique — par exemple, en referencant une image pour l'apparence d'un personnage et une video pour le mouvement de camera.
Cette approche multimodale vous permet de controler simultanement la composition, le mouvement et le ton. Au lieu de vous appuyer uniquement sur le texte, vous pouvez ancrer le style visuel avec des images de reference, guider le rythme avec de l'audio et definir l'action avec des clips video.
Importez une video de reference et Seedance 2.0 peut reproduire sa trajectoire de camera, son rythme d'action et ses effets visuels dans une nouvelle generation. C'est utile lorsque vous avez un plan que vous aimez — un travelling, un panoramique ou un effet camera a l'epaule — et que vous souhaitez appliquer le meme mouvement a differents sujets ou scenes.
Combinee avec des images de reference pour les personnages et les environnements, la reproduction de mouvement vous offre un controle precis de la mise en scene sans avoir a decrire chaque plan dans le texte.
Seedance 2.0 peut prolonger des videos existantes vers l'avant ou l'arriere. Importez un clip et decrivez ce qui se passe ensuite (ou ce qui s'est passe avant), et le modele genere une continuation fluide. Ceci est particulierement efficace pour construire des sequences plus longues a partir de courtes generations initiales.
La prolongation preserve la continuite visuelle — les personnages, l'eclairage et la perspective de camera restent coherents entre les images originales et les nouvelles images generees.
Vous pouvez remplacer des personnages ou des objets dans une video existante tout en conservant le reste de la scene intact. Importez la video source avec une image de reference du nouveau personnage, et Seedance 2.0 effectue le remplacement en maintenant la coherence du mouvement et de l'arriere-plan.
Cette capacite est precieuse pour adapter du contenu a differentes campagnes, localiser des ressources video ou experimenter differents designs de personnages sans regenerer l'integralite de la scene.
Seedance 2.0 genere automatiquement des effets sonores et de la musique de fond. La sortie audio correspond a l'action a l'ecran — pas, impacts, sons ambiants et reperes musicaux sont synchronises avec le contenu visuel. Vous pouvez egalement importer de l'audio de reference pour guider le ton et le rythme.
Pour du contenu rythme par la musique, les entrees audio peuvent servir de references de tempo. La video generee aligne ses coupes, mouvements et transitions sur le rythme de la piste fournie.
Seedance 2.0 prend en charge la generation de plans-sequences uniques qui maintient la coherence des personnages, des environnements et du flux de camera sur des durees etendues. Vous pouvez egalement generer des videos multi-segments et les fusionner avec une continuite entre les coupes.
Ces fonctionnalites sont concues pour les projets narratifs ou la coherence visuelle entre les scenes est essentielle — demonstrations produit, courts metrages et storytelling de marque.
Chaque generation peut etre configuree avec le format d'image, la duree (4-15 secondes) et le mode de generation. La sortie est rendue en 720p. Vous pouvez iterer en ajustant un ou deux elements du prompt a la fois, en comparant les resultats et en convergent vers une direction finale.
Les options d'exportation et les droits d'utilisation dependent de votre forfait. Les couts sont affiches avant la generation pour vous permettre de gerer votre budget de credits a travers vos projets.
Une comparaison neutre axee sur la clarte des fonctionnalites et l'adequation du flux de travail.
Seules les affirmations verifiees doivent etre utilisees lors de la comparaison d'outils.
Ebauches video IA pour toutes les equipes
Utilisez Seedance 2.0 pour explorer des idees et iterer sur des concepts video avant la production finale.
Draft short-form video concepts for TikTok, Instagram Reels, YouTube Shorts, and more.
Turn product images into short video drafts to explore presentation styles.
Storyboard ideas and create concept visualizations for pre-production.
Create video drafts for decks, training materials, and internal updates.
Explore video art, music visualizations, and experimental concepts.
Draft educational and explainer videos for learning content.
Tarifs Seedance 2.0
Choisissez le forfait adapte a votre flux de travail. Les fonctionnalites et les droits d'utilisation dependent des details du forfait.
Seedance 2.0
Inclut 500 credits
En savoir plus sur Seedance 2.0
Les details du produit sont disponibles sur les pages de fonctionnalites.