Una IA ha “animado” una escena inédita de Dragon Ball Super y Tom Cruise y Brad Pitt se pegan en una ciudad post-apocalíptica

Una herramienta basada en Inteligencia Artificial ya puede encargarse de convertir manga en anime y deque dos estrellas de Hollywood se peguen sin haber recibido un cheque

Escena del manga de Dragon Ball Super da el salto al anime a través de IA.

Hoy ha sido uno de esos días en los que me he dado cuenta de que el mundo cambia a un paso más rápido del que percibo. Me he encontrado con un clip viral compartido en redes que afirma haber recreado con IA toda una secuencia del manga de Dragon Ball Super que nunca llegó al anime, convirtiendo viñetas estáticas en una larga escena con movimiento, cámara y ese sabor a Dragon Ball Super que mucho echaban de menos. El problema no es que parezca casi sacado de la serie, el problema es que es mejor que el 80% de la serie original.

El nombre que está apareciendo en todas partes: Seedance 2.0

El modelo al que se atribuye el vídeo es Seedance 2.0, vinculado a ByteDance (la empresa detrás de TikTok) y descrito como un generador de vídeo con enfoque “cinematográfico”: entrada multimodal (texto, imágenes, clips), consistencia de personajes, lógica entre planos y —esto es lo que cambia el partido— capacidad de construir secuencias con lenguaje audiovisual, no solo “un plano bonito”.

Durante años, el cuello de botella de la animación ha sido el mismo: tiempo, mano de obra, coordinación, revisiones, presupuesto. Seedance (y lo que viene detrás) apunta directamente a resolver ese cuello a base de RAM.

Sí: un anime de televisión, con producción por episodios, arrastra calendarios imposibles, outsourcing, correcciones y mil decisiones “de supervivencia” para llegar a la fecha de emisión. Un clip viral puede elegir sus mejores segundos, recortar errores y presentarse como si fuera una demo perfecta.

Pero incluso con ese asterisco, el impacto es real: la barrera de entrada para que alguien produzca anime parece haberse esfumado. Y la pregunta incómoda ya no es si se puede. Es qué pasa cuando se pueda sustituir por completo.

Entonces… ¿Dónde va a acabar esto?

Ahora mismo lo que vemos es una muestra: un clip corto, espectacular, hecho para viralizarse y demostrar “hasta dónde llega la herramienta”. Es el típico vídeo que te deja con la sensación de que esto ya está más cerca de lo que parecía.

El siguiente paso es casi inevitable: que se use como herramienta de preproducción. Pasar de viñeta o storyboard a una animática rápida para probar coreografías, ritmo, encuadres y montaje. No para “hacer el episodio”, sino para ahorrar tiempo y acelerar decisiones. Y eso, en una industria con calendarios apretados, es gasolina.

El problema llega cuando esa preproducción empieza a verse demasiado bien. Porque si la IA ya te genera algo convincente, la tentación es clara: “vale, ahora lo limpiamos y lo tenemos”. Y aquí está el punto de inflexión: si la misma IA (u otra del mismo ecosistema) puede reacondicionar ese material —corregir frames raros, estabilizar, mantener personajes, uniformar estilo, mejorar fondos, incluso retocar movimiento— entonces la animación preliminar deja de ser preliminar y se convierte en la base de todo.

El último paso sale solo: empezar a producir cada vez más partes directamente con IA. Primero planos secundarios. Luego transiciones. Luego escenas enteras. Hasta que el trabajo humano se concentra en dirección, correcciones y “darle el toque”… mientras la mayor parte del metraje la genera un sistema.

No será hoy. Pero lo que hoy se viraliza como “locura” mañana se normaliza como “herramienta” y puede quedar un futuro en el que el entretenimiento ya no pasa por las manos de artistas y artesanos.

Y de Hollywood casi mejor ni hablamos...

Luis J. Merino

Técnico de sonido, melómano y amante de los dos...