Luma lanza Ray3 Modify, su nuevo modelo de IA para “volver a rodar” vídeos sin repetir el rodaje

Luma lanza Ray3 Modify, su nuevo modelo de IA para “volver a rodar” vídeos sin repetir el rodaje 2

La compañía Luma ha presentado Ray3 Modify, un nuevo modelo de IA de vídeo pensado para transformar metraje real ya grabado sin tener que repetir el rodaje, según explica la propia empresa. De acuerdo con la fuente, la herramienta permite cambiar actor, vestuario, escenario e incluso ciudad sobre una misma escena, manteniendo la interpretación original tal y como se rodó en cámara.

Ray3 Modify quiere respetar la actuación humana

Según los datos facilitados, Ray3 Modify se centra en preservar el performance del actor, un punto que suele perderse en muchos sistemas de vídeo generativo actuales. La empresa sostiene que el modelo sigue el movimiento del cuerpo, el tempo de la acción y la dirección de la mirada para que la carga emocional de la escena se mantenga estable aunque se cambie por completo el entorno visual.

De acuerdo con la compañía, el sistema entiende muy bien el material de entrada y no genera el vídeo “desde cero”, sino que construye encima del clip real que sube el usuario. La fuente insiste en que esto permite transformar entornos, vestuario o identidad visual del personaje sin “romper” la interpretación que ya se grabó en el set, algo pensado para productoras, marcas y creadores que trabajan con actores reales.

Según explica Luma, una de las claves es que el modelo prioriza el respeto al metraje real frente a la fantasía total típica de otros modelos generativos, lo que, según la fuente, reduce resultados incoherentes en movimientos y expresiones. De esta forma, el rodaje tradicional se convierte en la base sobre la que la IA aplica cambios controlados en postproducción, en lugar de reemplazarlo completamente.

Cómo usa imágenes de referencia para cambiar al personaje

Para cambiar al protagonista de una escena, Ray3 Modify se apoya en imágenes de referencia de personaje proporcionadas por el usuario, según detalla la nota. Estas imágenes marcan rasgos de rostro, ropa, peinado y estilo general, y sirven como guía visual estable para que la nueva identidad del personaje se mantenga coherente durante todo el clip.

La fuente explica que, a partir de esa referencia, la IA adapta la apariencia del intérprete real al nuevo personaje, pero conserva su movimiento, ritmo corporal y forma de mirar. En lugar de “pintar por encima”, el modelo genera un nuevo vídeo coherente donde el vestuario y la identidad encajan con cada gesto y ángulo de cámara, lo que resulta útil para campañas de marca, piezas para distintos mercados o pruebas creativas rápidas.

Según Luma, la guía visual que aportan esas imágenes permite incluso “revestir” por completo al actor, como si se hubiera cambiado el casting, manteniendo siempre la misma actuación base. De acuerdo con la compañía, esto ahorra rodajes adicionales cuando solo se quieren testear variaciones de personajes o estilos entre territorios, algo habitual en publicidad y contenidos globales.

Generación entre fotograma inicial y fotograma final

Además de cambiar personajes, Ray3 Modify permite trabajar con un fotograma de inicio y un fotograma de final para generar la transición intermedia, según la explicación de la empresa. La fuente señala que esta opción es útil para quienes tienen claro cómo empieza y termina un plano, pero no pueden rodar todo el desarrollo, dejando que la IA “rellene” el espacio entre ambos puntos.

De acuerdo con Luma, este enfoque ayuda a controlar mejor la evolución de una escena y la continuidad de los movimientos, especialmente en secuencias con coreografías o acciones muy precisas. La compañía indica que el modelo entiende su tarea como conectar A y B sin perder coherencia visual ni temporal, reduciendo cortes raros, cambios bruscos de posición o expresiones que no encajan.

Según la fuente, esta forma de trabajo disminuye la dependencia de prompts largos o difíciles de ajustar, ya que el sistema se guía más por referencias visuales concretas que por descripciones textuales. De este modo, los creadores pueden centrarse en decidir cómo entran y salen los personajes del plano y qué hitos quieren marcar, mientras la IA asegura la continuidad entre los puntos clave.

Una herramienta pensada para estudios, marcas y pequeños equipos

Luma sostiene que Ray3 Modify está diseñada para integrarse en flujos de trabajo ya existentes de estudios creativos, marcas y pequeños equipos, sin exigir cambios radicales en la forma de rodar. Según la compañía, los equipos pueden seguir capturando actuaciones con cámara como siempre y después “regrabar” digitalmente la escena con múltiples variaciones a partir del mismo clip real.

La nota remarca que, desde una única grabación, es posible generar diferentes versiones con ambientaciones, personajes o estilos distintos sin volver a movilizar al equipo de rodaje ni reservar nuevas localizaciones. De acuerdo con la fuente, esta idea de “volver a rodar en IA” permite ahorrar costes y tiempos de producción, mientras se mantiene la autenticidad del trabajo del actor.

Según la empresa, el modelo no pretende sustituir el rodaje tradicional, sino convertirlo en una base flexible sobre la que crear muchas variantes para distintos mercados y plataformas. La compañía señala que esto tiene especial sentido en un contexto en el que las marcas necesitan adaptar contenidos a múltiples territorios y formatos sin multiplicar el presupuesto.

Integración en Dream Machine y apuesta por la IA de vídeo

Ray3 Modify se integra dentro de Dream Machine, la plataforma de Luma para generación y modificación de vídeo con IA, según detalla la nota de prensa. La empresa recuerda que ya había introducido funciones de modificación de vídeo en junio de 2025 y que este nuevo modelo refuerza esa apuesta por preservar la actuación humana en los proyectos audiovisuales.

De acuerdo con la compañía, todas estas herramientas encajan en la misma idea: combinar captura real y manipulación inteligente sin que el espectador note cortes raros o cambios poco creíbles de personaje. Luma sitúa esta propuesta en un mercado de IA para edición de vídeo cada vez más competido, donde nombres como Runway o Kling ofrecen generación a partir de texto e imagen.

La fuente apunta que, mientras otras plataformas se apoyan más en la creación “desde cero”, Luma apuesta por modelos como Ray3 Modify, que se agarran al material rodado para mantener el trabajo de actores y cámara. Según la empresa, esto ofrece a los usuarios una opción más orientada a postproducción y adaptación de contenido ya existente, en lugar de limitarse al vídeo puramente sintético.

Financiación millonaria y gran infraestructura de IA

El lanzamiento de Ray3 Modify llega, según la nota, tras una gran ronda de financiación de 900 millones de dólares anunciada en noviembre de 2025. La fuente indica que esta inyección de capital explica en parte el ritmo al que Luma está lanzando nuevas capacidades para vídeo y modelos 3D, en un segmento donde se compite por escala y potencia de cómputo.

De acuerdo con la compañía, la ronda ha sido liderada por Humain, una empresa de IA propiedad del fondo soberano saudí Public Investment Fund. También han participado inversores ya presentes en el proyecto, como a16z, Amplify Partners y Matrix Partners, lo que, según la fuente, refleja que el plan de Luma sigue generando confianza en el sector tecnológico.

La nota añade que Luma no solo invierte en modelos como Ray3 Modify, sino también en la infraestructura que los soporta, con planes para construir junto a Humain un clúster de IA de 2 gigavatios en Arabia Saudí. Según la empresa, esta capacidad permitirá ejecutar modelos de vídeo generativo avanzados y entrenar nuevas versiones, manteniendo servicios como Dream Machine con tiempos de respuesta razonables incluso con muchos usuarios.

Qué puede suponer Ray3 Modify para los creadores

Según la fuente, Ray3 Modify se posiciona como una herramienta clave para quienes quieren combinar rodaje tradicional e IA de vídeo sin renunciar a la interpretación humana. La compañía sostiene que, con este modelo, se pueden cambiar actores, vestuario y escenarios, controlar transiciones con fotogramas de inicio y fin y generar múltiples versiones de una misma escena desde Dream Machine.

Para estudios, marcas y creadores individuales, la nota resume que esta propuesta ofrece más flexibilidad creativa sin disparar el coste de producción. De acuerdo con Luma, la gran diferencia está en poder apoyarse siempre en el metraje real que ya se tiene, y no partir de cero cada vez que se quiere probar una idea nueva o adaptar una campaña a otro mercado.

Fuente: https://lumalabs.ai/ray


También podría ser de tu interés:

Deja un comentario