- Seedance 2.0 es el nuevo modelo multimodal de ByteDance para crear vídeos hiperrealistas a partir de texto, imágenes, audio o clips de vídeo.
- Ha generado gran polémica en Hollywood por escenas con actores y personajes protegidos, y ha provocado la reacción de la Motion Picture Association y estudios como Disney.
- El sistema promete calidad cinematográfica en 2K, narrativa con múltiples planos y producción más rápida y barata para cine, publicidad y comercio electrónico.
- Ante el aluvión de críticas y el problema del copyright, Seedance 2.0 ya limita el uso de personajes con derechos y plantea un nuevo escenario legal y creativo para la IA de vídeo.
La irrupción de Seedance 2.0, el nuevo modelo de inteligencia artificial de ByteDance para generar vídeo, ha encendido todas las alarmas en la industria audiovisual. En cuestión de días, este sistema ha pasado de ser una curiosidad tecnológica a convertirse en el epicentro de un debate global sobre derechos de autor, uso de la imagen y futuro del trabajo creativo, con especial presión desde Hollywood y con un ojo puesto en cómo afectará a Europa y al resto del mundo.
El modelo, que ya se ha hecho viral en China y se está probando en fase beta, es capaz de crear escenas con aspecto cinematográfico a partir de simples instrucciones en texto, combinando vídeo, sonido y distintos ángulos de cámara en una misma secuencia. Entre el asombro por sus capacidades técnicas y el temor por sus implicaciones legales, Seedance 2.0 se ha convertido en el último símbolo de hasta qué punto la IA generativa de vídeo está reduciendo la distancia entre lo real y lo artificial.
Qué es Seedance 2.0 y qué aporta frente a otros generadores de vídeo
Seedance 2.0 es un modelo multimodal desarrollado por ByteDance, la empresa china dueña de TikTok y de herramientas como CapCut, que permite crear vídeos a partir de texto, imágenes, audio o pequeños clips ya existentes. El usuario introduce un prompt con unas pocas líneas y la IA genera una secuencia que, en los ejemplos que se han visto en redes, se acerca a la calidad de producciones de cine o televisión.
La compañía ha presentado este sistema como una solución para producciones profesionales de cine, comercio electrónico y publicidad. Su arquitectura, descrita como un transformador de difusión de doble rama, le permite producir vídeo en resolución 2K y con una velocidad que, según ByteDance, es hasta un 30% superior a la de algunos competidores directos. No se limita a clips cortos o a un único plano: puede encadenar varias tomas dentro de una misma escena, lo que la empresa denomina “narración multi-lente”.
Otra de las claves del modelo está en su capacidad para mantener consistencia entre personajes, escenarios y acciones. Frente a otros sistemas de vídeo generativo que fallan al cambiar de plano o deforman rasgos al cabo de unos segundos, Seedance 2.0 apuesta por secuencias más largas y coherentes, con un tratamiento cuidado de la iluminación, el movimiento de cámara y la continuidad visual.
En su despliegue inicial, el modelo se ha integrado en la plataforma Jimeng AI y está especialmente optimizado para prompts en chino, con una mejor comprensión semántica del idioma. Esto encaja con el objetivo de impulsar la producción de contenido local en China, aunque el impacto de sus vídeos se ha extendido de inmediato a redes globales como X o TikTok, donde se han compartido escenas que imitan tanto anime como superproducciones occidentales.
Entre los ejemplos que más han circulado se incluyen recreaciones de animes populares como Dragon Ball, Doraemon o Pokémon, reinterpretados como si fueran películas de artes marciales de acción real, así como supuestas escenas “inéditas” protagonizadas por celebridades internacionales. Estas demostraciones han alimentado tanto el entusiasmo por las posibilidades creativas como el temor a un uso masivo de material protegido sin autorización.
Del fenómeno viral en China a la ola de admiración (y preocupación) en Silicon Valley
El lanzamiento oficial de Seedance 2.0 se produjo en un contexto en el que China busca posicionarse como referente en modelos de IA avanzados tras el éxito de sistemas como DeepSeek. Medios estatales chinos han comparado el auge de esta herramienta con el impacto que tuvo el modelo R1 de DeepSeek en la comunidad tecnológica estadounidense, sugiriendo que podría tratarse de un nuevo “momento Sputnik” para la inteligencia artificial generativa.
En redes sociales chinas como Weibo, los hashtags relacionados con Seedance 2.0 han acumulado decenas de millones de clics. Usuarios han compartido clips que muestran a figuras como el rapero Ye (Kanye West) y Kim Kardashian incrustados en dramas de época ambientados en la China imperial, hablando y cantando en mandarín con una naturalidad que, a primera vista, puede pasar por material rodado con actores reales.
El revuelo ha traspasado fronteras. Elon Musk, muy activo en debates sobre IA, reaccionó en X a publicaciones que elogiaban a Seedance 2.0 con comentarios que subrayan la velocidad a la que avanzan estas tecnologías, alimentando la percepción de que China está ganando terreno en el campo de los generadores de vídeo de alta calidad.
El modelo ha sido presentado por ByteDance como una pieza clave para reducir el coste y el tiempo de creación de contenido en sectores como el cine, la publicidad o el comercio electrónico. La reacción de los mercados chinos ha sido significativa: empresas de medios, editoriales y desarrolladores de videojuegos han visto cómo sus acciones subían tras conocerse las capacidades de Seedance 2.0, ante la expectativa de poder acelerar la producción y competir de forma más agresiva a nivel global.
Pese a este entusiasmo, la compañía reconoce que la herramienta sigue en fase beta. El acceso es limitado y muchos usuarios se encuentran con largas colas de espera y una experiencia todavía inestable, con tiempos de generación elevados debido a la enorme demanda. Sin embargo, incluso en este estado preliminar, el modelo ya ha sacudido la conversación internacional sobre el futuro del audiovisual.
La escena que encendió Hollywood: Tom Cruise, Brad Pitt y un prompt de dos líneas
El punto de inflexión para la industria del cine llegó cuando empezaron a viralizarse vídeos generados con Seedance 2.0 en los que aparecían Tom Cruise y Brad Pitt peleando en lo alto de una azotea en ruinas o sobre un puente parcialmente destruido. Según explicó el director irlandés Ruairí Robinson, bastó un prompt de apenas dos líneas para obtener una secuencia de unos 15 segundos con apariencia de escena de blockbuster.
En los clips circula un distintivo que indica que el contenido ha sido “generado con IA”, pero el nivel de detalle, la iluminación, los movimientos de cámara y la forma en que se mueven y gesticulan los supuestos actores han preocupado a guionistas, intérpretes y ejecutivos de estudio. No se trata solo de un experimento; muchos lo han interpretado como un adelanto de lo que podría hacerse con rostros conocidos y propiedades intelectuales sin pasar por un rodaje tradicional ni por acuerdos contractuales.
Entre las voces que se han mostrado más inquietas destaca la de Rhett Reese, guionista de la saga Deadpool y de películas como Bienvenidos a Zombieland. En varios mensajes publicados en X, Reese confesó que el vídeo de Pitt contra Cruise le dejó “alucinado por su profesionalidad” y le llevó a pensar que “probablemente se ha acabado” para buena parte de la profesión tal y como se conoce hoy. Sus palabras, más cercanas al miedo que al entusiasmo, reflejan el clima de incertidumbre que recorre los despachos de Hollywood.
El guionista alertó de que, en muy poco tiempo, una sola persona podría sentarse delante de un ordenador y crear una película indistinguible de una superproducción actual. En su visión más pesimista, Hollywood estaría “a punto de ser revolucionado o arrasado”, con muchos profesionales viendo peligrar sus carreras mientras jóvenes creadores con talento utilizan la IA para saltarse unos “guardianes” que históricamente han controlado el acceso a las grandes producciones.
Estas reacciones se suman a un contexto ya crispado por la histórica huelga de guionistas y actores en Estados Unidos, en la que el uso de IA en el proceso creativo y en la explotación de la imagen fue uno de los puntos más delicados de la negociación. Seedance 2.0 ha llegado justo cuando el sector comenzaba a asimilar esos acuerdos, reabriendo heridas que parecían cerradas.
La respuesta de la Motion Picture Association y el frente legal del copyright
La Motion Picture Association (MPA), que agrupa a los principales grandes estudios de Hollywood, reaccionó con rapidez y dureza al lanzamiento de Seedance 2.0 y a la circulación de vídeos con estrellas reconocibles. En un comunicado, la asociación denunció que el servicio ha permitido en un solo día el uso no autorizado y a gran escala de obras estadounidenses protegidas por derechos de autor, y acusó a ByteDance de operar sin salvaguardias suficientes para evitar la infracción.
Según la MPA, al poner en marcha una herramienta que facilita la creación de escenas que recuerdan de forma directa a películas, personajes y estilos visuales ya existentes, ByteDance estaría ignorando una legislación de copyright consolidada que sostiene millones de empleos en la industria del entretenimiento. El mensaje es claro: la asociación exige que la empresa china “cese de inmediato sus actividades infractoras” y tome medidas contundentes para controlar qué puede generar el modelo.
Esta reacción no llega en el vacío. La MPA ya se había enfrentado a situaciones similares con otros sistemas de IA generativa de vídeo, en los que reclamó filtros mucho más estrictos para impedir la reproducción de material protegido. En el caso de Sora, la presión de estudios y titulares de derechos derivó en la introducción de barreras técnicas y en acuerdos de licencia concretos, como el que permitió a Disney autorizar el uso de unos 200 de sus personajes bajo condiciones pactadas.
Con Seedance 2.0, el pulso se lleva a un terreno especialmente sensible: no se discute solo la inspiración general o el “estilo”, sino la creación de clips que parecen metraje inédito con actores reales y la imitación de personajes icónicos considerados activos clave para las majors de Hollywood. Para la MPA y los estudios, el riesgo no es solo económico, sino de pérdida de control sobre su propiedad intelectual y sobre la propia imagen de las estrellas.
La polémica se produce además en un momento en que distintos tribunales, también en Europa, empiezan a recibir demandas colectivas contra empresas de IA por el uso de obras protegidas en el entrenamiento de modelos. El caso Seedance puede servir de referencia para el diseño de futuras normas sobre modelos generativos de vídeo, tanto en Estados Unidos como en la Unión Europea, donde el nuevo Reglamento de IA ya abre la puerta a obligaciones de transparencia sobre los datos de entrenamiento.
Disney, estudios y sindicatos: Seedance 2.0 como “biblioteca pirata” de personajes
Más allá de la MPA, algunos estudios han elevado el tono por su cuenta. Disney, que ya venía batallando contra el uso de sus personajes en sistemas como Midjourney o en buscadores con funciones de IA, ha dirigido a ByteDance una comunicación muy crítica en la que llega a describir a Seedance 2.0 como “una biblioteca pirata de personajes protegidos” que trataría a sus creaciones como si fueran imágenes de dominio público y de uso gratuito.
La compañía, que en Europa tiene una fuerte presencia tanto en producción como en distribución, considera que el modelo hace un uso deliberado y generalizado de su propiedad intelectual y reclama medidas inmediatas para impedir que cualquier usuario pueda generar escenas con personajes claramente inspirados en su catálogo. La preocupación va más allá de la estética: el temor es que se erosione progresivamente el valor de marcas y sagas construidas durante décadas.
A este frente se han sumado organizaciones como Human Artistry, donde participan miembros de sindicatos como SAG-AFTRA (actores) y DGA (directores). Desde este colectivo se ha calificado el uso masivo de obras ajenas para entrenar y alimentar modelos de IA como “un ataque a todos los creadores del mundo”, con mensajes muy duros contra lo que consideran “robo de trabajo creativo” para producir contenido generado por máquina.
El debate recuerda a otros conflictos recientes entre estudios y empresas tecnológicas, incluido el envío de cartas de advertencia de Disney a compañías como Google por el uso de personajes en sus sistemas de IA generativa. Sin embargo, con Seedance 2.0 el enfrentamiento se percibe como especialmente delicado, porque la línea que separa la parodia de la suplantación plena se estrecha a medida que los resultados ganan realismo.
Por el momento, ByteDance no ha emitido una respuesta pública de gran calado sobre estas acusaciones, más allá de insistir en que Seedance 2.0 supone un salto sustancial en la calidad de generación y que está especialmente pensado para producciones profesionales. Pero la presión para que concrete qué salvaguardas técnicas y legales incorpora el sistema no deja de aumentar.
El giro de Seedance 2.0: bloqueo de personajes con copyright y límites en la beta
Las críticas de Hollywood y de los titulares de derechos han coincidido con un cambio notable en el comportamiento del modelo durante su fase de pruebas. Usuarios que acceden a Seedance 2.0 a través de plataformas como ChatCut o Jimeng han comprobado que ya no es posible generar, al menos de forma directa, vídeos que incluyan personajes con copyright claramente identificables.
En distintos tests realizados por medios tecnológicos, cada vez que se ha pedido un clip con figuras de series populares —por ejemplo, los protagonistas de Friends— la herramienta ha devuelto un mensaje de advertencia. Seedance 2.0 explica que no puede atender esa solicitud por un “problema de copyright”, y recuerda que esos personajes están bajo la protección de estudios como Warner Bros. En lugar de aceptar el prompt, propone alternativas genéricas que no vulneren derechos de terceros.
Lo llamativo es que, incluso intentando rodear la restricción con indicaciones como “personajes que se parezcan” a determinados iconos de la cultura popular, el sistema detecta el intento y vuelve a negarse. En todos los casos, la IA insiste en que generaría un contenido que podría infringir derechos de autor y sugiere reformular la idea para evitar el conflicto.
Este endurecimiento de los filtros no se limita a una compañía concreta: según las pruebas realizadas, Seedance 2.0 está aplicando el mismo criterio con distintas grandes productoras de Hollywood, lo que indica un esfuerzo activo por parte de ByteDance para reducir el riesgo legal de la herramienta antes de su lanzamiento global. De momento, la política se está probando en un contexto de alta demanda y capacidad limitada, con colas y tiempos de espera prolongados para generar nuevos vídeos.
La situación recuerda a lo que ha ocurrido con otros modelos como Sora, que también tuvo que introducir cambios importantes para cumplir con el copyright, restringiendo el uso de material protegido salvo que exista permiso explícito. Todo apunta a que, cuando Seedance 2.0 abandone la beta y se abra a un público más amplio, tendrá que mantener o incluso reforzar estas “barandillas” de seguridad si quiere operar en mercados con regulaciones estrictas, como el europeo.
Un salto técnico que alimenta dudas sobre empleo creativo y desinformación
El impacto de Seedance 2.0 no se reduce a la cuestión del copyright. Muchos observadores señalan que la calidad visual y la coherencia narrativa que empieza a mostrar marcan un punto de inflexión respecto a los primeros experimentos de IA de vídeo que se hicieron virales hace pocos años, cuando los rostros se deformaban y los movimientos resultaban evidentemente artificiales.
Ahora, los clips generados por el modelo se asemejan a fragmentos “encontrados” de películas que nunca se han rodado, o a escenas de celebridades en contextos inventados pero aparentemente verosímiles. Esto abre una doble preocupación. Por un lado, la del empleo: cada avance técnico refuerza el temor de que parte del trabajo de guionistas, directores, animadores o equipos de posproducción pueda verse desplazado o devaluado. Por otro, la de la desinformación: las posibilidades de fabricar vídeos hiperrealistas con personas públicas diciendo o haciendo cosas que nunca han ocurrido son evidentes.
Casos como el del anuncio navideño de Coca-Cola generado con IA, que necesitó a un centenar de personas y decenas de miles de clips sintéticos para lograr un resultado criticado por “frío” y “sin alma”, muestran que la tecnología aún requiere mucho trabajo humano. Pero modelos como Seedance 2.0 persiguen precisamente reducir esa dependencia, ofreciendo secuencias más largas, de mayor calidad y con menos inconsistencias, lo que alimenta el miedo a que, a medio plazo, algunas tareas desaparezcan o se transformen radicalmente.
En el ámbito creativo, no obstante, también hay quienes ven oportunidades. Estas herramientas pueden funcionar como previsualización rápida de escenas, storyboards animados o prototipos de bajo coste para producciones de cine, televisión y videojuegos, incluyendo los mercados europeo y español. La tensión surge cuando la maqueta deja de ser solo un borrador y empieza a competir con el producto final, especialmente si se basa en datos tomados de obras ajenas sin compensación.
Todo ello obliga a replantearse la relación que el público mantiene con el vídeo como “prueba” de lo que ha sucedido. Si cualquier persona puede generar en minutos un clip convincente de un político, un actor o un empresario en situaciones delicadas, la sociedad tendrá que desarrollar una nueva alfabetización audiovisual que incluya la verificación de fuentes, el uso de marcas de agua fiables y sistemas de trazabilidad de contenido.
En Europa, donde la regulación de la desinformación y la protección de datos son especialmente estrictas, el despliegue de herramientas como Seedance 2.0 podría encontrarse con exigencias adicionales en materia de transparencia, etiquetado y control, tanto para las plataformas que difunden vídeos como para los desarrolladores de modelos generativos.
Un tablero global: China, Silicon Valley, Hollywood… y el impacto en Europa
El caso de Seedance 2.0 refleja una competición geopolítica y económica cada vez más visible en torno a la IA generativa de vídeo. China impulsa modelos como el de ByteDance para reforzar su ecosistema tecnológico y mediático, mientras que empresas de Estados Unidos y Europa tratan de mantener el liderazgo con propuestas como Sora, Runway o Pika, entre otras.
En este contexto, la recepción del modelo en los mercados occidentales estará condicionada por dos factores: la regulación y la confianza. La Unión Europea avanza con un marco normativo que obliga a los desarrolladores a explicar qué datos han utilizado y a mitigar riesgos específicos, incluidos los relacionados con el copyright y la protección de la imagen. Esto podría obligar a ByteDance a adaptar el funcionamiento de Seedance 2.0 si quiere operar abiertamente en el espacio europeo.
A la vez, el ecosistema creativo europeo —productoras, estudios de animación, agencias de publicidad, plataformas de streaming— observa estas herramientas con una mezcla de interés y cautela. Por un lado, podrían reducir costes y permitir que proyectos medianos o pequeños accedan a recursos visuales que antes solo estaban al alcance de grandes estudios. Por otro, la posibilidad de que se erosionen las bases legales que protegen la obra de autores y artistas genera reticencias, especialmente en países con una fuerte tradición de protección de derechos de autor, como España o Francia.
Para las startups y empresas europeas que desarrollan soluciones basadas en IA de vídeo, la historia de Seedance 2.0 funciona también como aviso: la transparencia sobre las fuentes de datos, el diseño de salvaguardas eficaces y el diálogo con los sectores afectados pueden convertirse en ventajas competitivas frente a modelos que operan en zonas grises. La presión social y regulatoria no parece que vaya a disminuir, y los casos más polémicos terminan marcando el tono de las futuras normas.
Todo apunta a que la discusión en torno a Seedance 2.0 irá mucho más allá de un cruce puntual de comunicados entre Hollywood y ByteDance. Lo que está en juego es cómo se organizará, en los próximos años, la convivencia entre creadores humanos y sistemas capaces de generar vídeo hiperrealista, quién controlará las herramientas y qué compensaciones recibirán quienes han construido el patrimonio audiovisual sobre el que se entrenan estos modelos. En medio de esa negociación, la tecnología sigue avanzando y llenando las redes de escenas que hace apenas un par de años habrían parecido imposibles.
Editor profesional de Tecnología y Software