
Seedance representa un modelo de inteligencia artificial desarrollado por ByteDance, la compañía detrás de la plataforma social TikTok. Este sistema se especializa en la creación de videos basados en descripciones textuales, posicionándose como rival de herramientas como Veo de Google o Sora de OpenAI.
ByteDance se destaca como una de las cinco firmas chinas más importantes en el campo de la IA. Cuenta con una línea propia de modelos denominada Seed, que incluye opciones como Seedream para generar imágenes, Seededit para modificar imágenes, Seed3D para producir modelos tridimensionales, Seed LiveInterpret para traducir voz en tiempo real, Seed-Music para componer música, entre otros.
El proceso de uso es directo: el usuario proporciona una descripción a través de un prompt, con la opción de agregar una imagen como guía, y Seedance produce un video de varios segundos que representa la escena indicada.
Para elaborar el video, el modelo analiza y comprende las instrucciones en lenguaje natural, gracias a su entrenamiento en patrones de comunicación humana. Luego, genera el contenido visual junto con un audio que se ajusta perfectamente a las directivas dadas.
Seedance busca diferenciarse mediante un realismo físico superior, asegurando que los objetos se desplacen de manera natural y acorde con las leyes de la física. Además, ofrece consistencia en los aspectos visuales y soporta videos de hasta 10 segundos de longitud.
El avance en la IA generativa es acelerado, con nuevos modelos emergiendo frecuentemente para transformar el panorama. En este contexto, Seedance 2.0 se presenta como una innovación notable, al tratarse de un sistema multimodal que integra imágenes, videos, audio y texto para producir contenido.
Imagina incorporar un audio de un sonido o diálogo para crear un video basado en él, o agregar un video o fotografía como base de referencia. El modelo procesa todos estos elementos de manera simultánea.
Ofrece capacidades precisas de referencia y exporta resultados en resolución 2K, con velocidades de generación que superan en un 30% a la versión 1.5 anterior. Asimismo, ha potenciado su comprensión de la física relacionada con el sonido.
Esta actualización incorpora el concepto de multi-lens storytelling, que permite preservar al mismo personaje, con idéntica vestimenta y rasgos faciales, a lo largo de múltiples ángulos de cámara. Esto facilita la creación de videos más elaborados mientras se mantiene la unidad entre las secuencias.
ByteDance aún no ha integrado Seedance 2.0 en su sitio web de modelos, donde solo se encuentra en etapa de pruebas para un grupo restringido de usuarios. No obstante, se anticipa que gradualmente se extenderá al público general. Es importante estar alerta, ya que existen sitios fraudulentos que explotan el nombre de Seedance 2.0 para atraer visitantes.