Genere videos con IA a partir de texto, imágenes, referencias de video y audio. Replique movimientos de cámara, extienda clips y genere efectos de sonido automáticamente.
Cree videos con IA en tres simples pasos
Seleccione texto a video o imagen a video, luego ingrese un prompt o suba una imagen de referencia.
Elija los ajustes disponibles como modelo, relación de aspecto y duración, luego inicie la generación.
Itere sobre prompts y configuraciones, luego exporte según su plan y opciones.
Un flujo de trabajo práctico para la creación de video con IA
Use prompts y configuraciones para guiar la apariencia, el movimiento y la estructura de sus videos. Los resultados varían según la entrada y la configuración.
Entradas de texto, imagen, video y audio en un solo flujo de trabajo — combine hasta 12 archivos por generación
Efectos de sonido y música generados automáticamente, además de carga de MP3 como referencias de audio
Replicación de video de referencia para movimientos de cámara, acciones y efectos creativos
Extensión de video, reemplazo de personajes y edición de escenas en clips existentes
Tomas largas de una sola toma y sincronización rítmica con la música para resultados profesionales
Entradas de texto, imagen, video y audio en un solo flujo de trabajo — combine hasta 12 archivos por generación
Replicación de video de referencia para movimientos de cámara, acciones y efectos creativos
Efectos de sonido y música generados automáticamente, además de carga de MP3 como referencias de audio
Los resultados dependen del prompt y la configuración
Seedance 2.0 es un generador de video multimodal con IA que acepta imágenes, videos, audio y texto como entradas. Las secciones a continuación explican cómo funciona cada capacidad y cómo se integran en un flujo de trabajo profesional de creación de video.
Seedance 2.0 accepts up to 9 images, 3 video clips (max 15 s total), and 3 MP3 audio files (max 15 s total) alongside a text prompt. You can freely combine these inputs in a single generation. Use the @ symbol in your prompt to assign each uploaded file a specific role — for example, referencing an image for character appearance and a video for camera movement.
This multimodal approach lets you control composition, motion, and tone simultaneously. Instead of relying on text alone, you can anchor the visual style with reference images, guide the rhythm with audio, and define the action with video clips.
Upload a reference video and Seedance 2.0 can replicate its camera trajectory, action pacing, and visual effects in a new generation. This is useful when you have a shot you like — a dolly push, a tracking pan, or a handheld shake — and want to apply the same movement to different subjects or scenes.
Combined with image references for characters and environments, motion replication gives you precise directorial control without describing every frame in text.
Seedance 2.0 can extend existing videos forward or backward. Upload a clip and describe what happens next (or what came before), and the model generates a seamless continuation. This is particularly effective for building longer sequences from short initial generations.
Extension preserves visual continuity — characters, lighting, and camera perspective stay consistent across the boundary between the original footage and the new frames.
You can replace characters or objects within an existing video while keeping the rest of the scene intact. Upload the source video alongside a reference image of the new character, and Seedance 2.0 handles the swap while maintaining motion and background consistency.
This capability is valuable for adapting content across different campaigns, localizing video assets, or experimenting with different character designs without regenerating the entire scene.
Seedance 2.0 generates sound effects and background music automatically. The audio output matches the on-screen action — footsteps, impacts, ambient sound, and musical cues are timed to the visual content. You can also upload reference audio to guide the tone and rhythm.
For music-driven content, audio inputs can serve as beat references. The generated video aligns its cuts, motion, and transitions to the rhythm of the supplied track.
Seedance 2.0 supports one-take long-shot generation that maintains consistent characters, environments, and camera flow across extended durations. You can also generate multi-segment videos and merge them with continuity between cuts.
These features are designed for narrative-driven projects where visual consistency across scenes is essential — product demos, short films, and brand storytelling.
Each generation can be configured with aspect ratio, duration (4–15 seconds), and generation mode. The output is rendered at 720p. You can iterate by adjusting one or two prompt elements at a time, comparing results, and converging on a final direction.
Export options and usage rights depend on your plan. Costs are displayed before generation so you can manage your credit budget across projects.
Seedance 2.0 acepta hasta 9 imágenes, 3 clips de video (máximo 15 s en total) y 3 archivos de audio MP3 (máximo 15 s en total) junto con un prompt de texto. Puede combinar libremente estas entradas en una sola generación. Use el símbolo @ en su prompt para asignar a cada archivo subido una función específica — por ejemplo, referenciar una imagen para la apariencia del personaje y un video para el movimiento de cámara.
Este enfoque multimodal le permite controlar la composición, el movimiento y el tono simultáneamente. En lugar de depender solo del texto, puede anclar el estilo visual con imágenes de referencia, guiar el ritmo con audio y definir la acción con clips de video.
Suba un video de referencia y Seedance 2.0 puede replicar su trayectoria de cámara, ritmo de acción y efectos visuales en una nueva generación. Esto es útil cuando tiene una toma que le gusta — un avance en dolly, un paneo de seguimiento o un movimiento de cámara en mano — y desea aplicar el mismo movimiento a diferentes sujetos o escenas.
Combinada con referencias de imagen para personajes y entornos, la replicación de movimiento le brinda un control de dirección preciso sin describir cada fotograma en texto.
Seedance 2.0 puede extender videos existentes hacia adelante o hacia atrás. Suba un clip y describa lo que sucede después (o lo que sucedió antes), y el modelo genera una continuación fluida. Esto es particularmente efectivo para construir secuencias más largas a partir de generaciones iniciales cortas.
La extensión preserva la continuidad visual — los personajes, la iluminación y la perspectiva de cámara se mantienen consistentes a través de la frontera entre el metraje original y los nuevos fotogramas.
Puede reemplazar personajes u objetos dentro de un video existente manteniendo el resto de la escena intacta. Suba el video fuente junto con una imagen de referencia del nuevo personaje, y Seedance 2.0 realiza el intercambio manteniendo la consistencia del movimiento y el fondo.
Esta capacidad es valiosa para adaptar contenido a diferentes campañas, localizar activos de video o experimentar con diferentes diseños de personajes sin regenerar toda la escena.
Seedance 2.0 genera efectos de sonido y música de fondo automáticamente. La salida de audio coincide con la acción en pantalla — pasos, impactos, sonido ambiental y señales musicales están sincronizados con el contenido visual. También puede subir audio de referencia para guiar el tono y el ritmo.
Para contenido basado en música, las entradas de audio pueden servir como referencias de ritmo. El video generado alinea sus cortes, movimientos y transiciones al ritmo de la pista proporcionada.
Seedance 2.0 admite la generación de tomas largas de una sola toma que mantiene personajes, entornos y flujo de cámara consistentes a lo largo de duraciones extendidas. También puede generar videos multisegmento y combinarlos con continuidad entre cortes.
Estas funciones están diseñadas para proyectos narrativos donde la consistencia visual entre escenas es esencial — demostraciones de productos, cortometrajes y storytelling de marca.
Cada generación se puede configurar con relación de aspecto, duración (4-15 segundos) y modo de generación. La salida se renderiza a 720p. Puede iterar ajustando uno o dos elementos del prompt a la vez, comparando resultados y convergiendo hacia una dirección final.
Las opciones de exportación y los derechos de uso dependen de su plan. Los costos se muestran antes de la generación para que pueda gestionar su presupuesto de créditos entre proyectos.
Una comparación neutral enfocada en la claridad de funciones y la adecuación del flujo de trabajo.
Solo se deben usar afirmaciones verificadas al comparar herramientas.
Borradores de video con IA para equipos
Use Seedance 2.0 para explorar ideas e iterar sobre conceptos de video antes de la producción final.
Draft short-form video concepts for TikTok, Instagram Reels, YouTube Shorts, and more.
Turn product images into short video drafts to explore presentation styles.
Storyboard ideas and create concept visualizations for pre-production.
Create video drafts for decks, training materials, and internal updates.
Explore video art, music visualizations, and experimental concepts.
Draft educational and explainer videos for learning content.
Planes de precios de Seedance 2.0
Elija el plan que se adapte a su flujo de trabajo. Las funciones y derechos de uso dependen de los detalles del plan.
Seedance 2.0
Incluye 500 créditos
Más información sobre Seedance 2.0
Los detalles del producto están sujetos a las páginas de funciones.