{"id":129998,"date":"2025-12-21T23:41:00","date_gmt":"2025-12-21T22:41:00","guid":{"rendered":"https:\/\/quondos.com\/mag\/?p=129998"},"modified":"2025-12-21T23:41:03","modified_gmt":"2025-12-21T22:41:03","slug":"luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje","status":"publish","type":"post","link":"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/","title":{"rendered":"Luma lanza Ray3 Modify, su nuevo modelo de IA para \u201cvolver a rodar\u201d v\u00eddeos sin repetir el rodaje"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"586\" src=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/Captura-de-pantalla-2025-12-21-233950-1024x586.png\" alt=\"\" class=\"wp-image-129999\" title=\"\" srcset=\"https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/Captura-de-pantalla-2025-12-21-233950-1024x586.png 1024w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/Captura-de-pantalla-2025-12-21-233950-300x172.png 300w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/Captura-de-pantalla-2025-12-21-233950-768x440.png 768w, https:\/\/quondos.com\/mag\/wp-content\/uploads\/2025\/12\/Captura-de-pantalla-2025-12-21-233950.png 1265w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>La compa\u00f1\u00eda Luma ha presentado <strong>Ray3 Modify, un nuevo modelo de IA de v\u00eddeo<\/strong> pensado para transformar metraje real ya grabado sin tener que repetir el rodaje, seg\u00fan explica la propia empresa. De acuerdo con la fuente, la herramienta permite cambiar <strong>actor, vestuario, escenario e incluso ciudad<\/strong> sobre una misma escena, manteniendo la interpretaci\u00f3n original tal y como se rod\u00f3 en c\u00e1mara.<\/p> <div id=\"ez-toc-container\" class=\"ez-toc-v2_0_76 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">\u00cdndice de contenidos<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Alternar tabla de contenidos\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Ray3_Modify_quiere_respetar_la_actuacion_humana\" >Ray3 Modify quiere respetar la actuaci\u00f3n humana<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Como_usa_imagenes_de_referencia_para_cambiar_al_personaje\" >C\u00f3mo usa im\u00e1genes de referencia para cambiar al personaje<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Generacion_entre_fotograma_inicial_y_fotograma_final\" >Generaci\u00f3n entre fotograma inicial y fotograma final<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Una_herramienta_pensada_para_estudios_marcas_y_pequenos_equipos\" >Una herramienta pensada para estudios, marcas y peque\u00f1os equipos<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Integracion_en_Dream_Machine_y_apuesta_por_la_IA_de_video\" >Integraci\u00f3n en Dream Machine y apuesta por la IA de v\u00eddeo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Financiacion_millonaria_y_gran_infraestructura_de_IA\" >Financiaci\u00f3n millonaria y gran infraestructura de IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#Que_puede_suponer_Ray3_Modify_para_los_creadores\" >Qu\u00e9 puede suponer Ray3 Modify para los creadores<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Ray3_Modify_quiere_respetar_la_actuacion_humana\"><\/span>Ray3 Modify quiere respetar la actuaci\u00f3n humana<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Seg\u00fan los datos facilitados, <strong>Ray3 Modify se centra en preservar el performance del actor<\/strong>, un punto que suele perderse en muchos sistemas de v\u00eddeo generativo actuales. La empresa sostiene que el modelo sigue el movimiento del cuerpo, el tempo de la acci\u00f3n y la direcci\u00f3n de la mirada para que <strong>la carga emocional de la escena se mantenga estable<\/strong> aunque se cambie por completo el entorno visual.<\/p> <p>De acuerdo con la compa\u00f1\u00eda, el sistema entiende muy bien el material de entrada y no genera el v\u00eddeo \u201cdesde cero\u201d, sino que <strong>construye encima del clip real que sube el usuario<\/strong>. La fuente insiste en que esto permite transformar <strong>entornos, vestuario o identidad visual del personaje<\/strong> sin \u201cromper\u201d la interpretaci\u00f3n que ya se grab\u00f3 en el set, algo pensado para productoras, marcas y creadores que trabajan con actores reales.<\/p> <p>Seg\u00fan explica Luma, una de las claves es que el modelo prioriza el respeto al metraje real frente a la fantas\u00eda total t\u00edpica de otros modelos generativos, lo que, seg\u00fan la fuente, <strong>reduce resultados incoherentes en movimientos y expresiones<\/strong>. De esta forma, el rodaje tradicional se convierte en la base sobre la que <strong>la IA aplica cambios controlados en postproducci\u00f3n<\/strong>, en lugar de reemplazarlo completamente.<\/p> <h2><span class=\"ez-toc-section\" id=\"Como_usa_imagenes_de_referencia_para_cambiar_al_personaje\"><\/span>C\u00f3mo usa im\u00e1genes de referencia para cambiar al personaje<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Para cambiar al protagonista de una escena, Ray3 Modify se apoya en <strong>im\u00e1genes de referencia de personaje proporcionadas por el usuario<\/strong>, seg\u00fan detalla la nota. Estas im\u00e1genes marcan rasgos de rostro, ropa, peinado y estilo general, y sirven como gu\u00eda visual estable para que <strong>la nueva identidad del personaje se mantenga coherente durante todo el clip<\/strong>.<\/p> <p>La fuente explica que, a partir de esa referencia, <strong>la IA adapta la apariencia del int\u00e9rprete real al nuevo personaje<\/strong>, pero conserva su movimiento, ritmo corporal y forma de mirar. En lugar de \u201cpintar por encima\u201d, el modelo genera <strong>un nuevo v\u00eddeo coherente donde el vestuario y la identidad encajan con cada gesto y \u00e1ngulo de c\u00e1mara<\/strong>, lo que resulta \u00fatil para campa\u00f1as de marca, piezas para distintos mercados o pruebas creativas r\u00e1pidas.<\/p> <p>Seg\u00fan Luma, la gu\u00eda visual que aportan esas im\u00e1genes permite incluso \u201crevestir\u201d por completo al actor, como si se hubiera cambiado el casting, manteniendo siempre la misma actuaci\u00f3n base. De acuerdo con la compa\u00f1\u00eda, <strong>esto ahorra rodajes adicionales<\/strong> cuando solo se quieren testear <strong>variaciones de personajes o estilos entre territorios<\/strong>, algo habitual en publicidad y contenidos globales.<\/p> <h2><span class=\"ez-toc-section\" id=\"Generacion_entre_fotograma_inicial_y_fotograma_final\"><\/span>Generaci\u00f3n entre fotograma inicial y fotograma final<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Adem\u00e1s de cambiar personajes, Ray3 Modify permite trabajar con <strong>un fotograma de inicio y un fotograma de final para generar la transici\u00f3n intermedia<\/strong>, seg\u00fan la explicaci\u00f3n de la empresa. La fuente se\u00f1ala que esta opci\u00f3n es \u00fatil para quienes tienen claro c\u00f3mo empieza y termina un plano, pero <strong>no pueden rodar todo el desarrollo<\/strong>, dejando que la IA \u201crellene\u201d el espacio entre ambos puntos.<\/p> <p>De acuerdo con Luma, este enfoque ayuda a controlar mejor <strong>la evoluci\u00f3n de una escena y la continuidad de los movimientos<\/strong>, especialmente en secuencias con coreograf\u00edas o acciones muy precisas. La compa\u00f1\u00eda indica que el modelo entiende su tarea como <strong>conectar A y B sin perder coherencia visual ni temporal<\/strong>, reduciendo cortes raros, cambios bruscos de posici\u00f3n o expresiones que no encajan.<\/p> <p>Seg\u00fan la fuente, esta forma de trabajo disminuye la dependencia de prompts largos o dif\u00edciles de ajustar, ya que el sistema se gu\u00eda m\u00e1s por <strong>referencias visuales concretas<\/strong> que por descripciones textuales. De este modo, los creadores pueden centrarse en decidir <strong>c\u00f3mo entran y salen los personajes del plano y qu\u00e9 hitos quieren marcar<\/strong>, mientras la IA asegura la continuidad entre los puntos clave.<\/p> <h2><span class=\"ez-toc-section\" id=\"Una_herramienta_pensada_para_estudios_marcas_y_pequenos_equipos\"><\/span>Una herramienta pensada para estudios, marcas y peque\u00f1os equipos<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Luma sostiene que Ray3 Modify est\u00e1 dise\u00f1ada para integrarse en <strong>flujos de trabajo ya existentes de estudios creativos, marcas y peque\u00f1os equipos<\/strong>, sin exigir cambios radicales en la forma de rodar. Seg\u00fan la compa\u00f1\u00eda, los equipos pueden seguir capturando actuaciones con c\u00e1mara como siempre y despu\u00e9s <strong>\u201cregrabar\u201d digitalmente la escena con m\u00faltiples variaciones<\/strong> a partir del mismo clip real.<\/p> <p>La nota remarca que, desde una \u00fanica grabaci\u00f3n, es posible <strong>generar diferentes versiones con ambientaciones, personajes o estilos distintos<\/strong> sin volver a movilizar al equipo de rodaje ni reservar nuevas localizaciones. De acuerdo con la fuente, esta idea de \u201cvolver a rodar en IA\u201d permite <strong>ahorrar costes y tiempos de producci\u00f3n<\/strong>, mientras se mantiene la autenticidad del trabajo del actor.<\/p> <p>Seg\u00fan la empresa, el modelo no pretende sustituir el rodaje tradicional, sino convertirlo en una base flexible sobre la que <strong>crear muchas variantes para distintos mercados y plataformas<\/strong>. La compa\u00f1\u00eda se\u00f1ala que esto tiene especial sentido en un contexto en el que <strong>las marcas necesitan adaptar contenidos a m\u00faltiples territorios y formatos<\/strong> sin multiplicar el presupuesto.<\/p> <h2><span class=\"ez-toc-section\" id=\"Integracion_en_Dream_Machine_y_apuesta_por_la_IA_de_video\"><\/span>Integraci\u00f3n en Dream Machine y apuesta por la IA de v\u00eddeo<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Ray3 Modify se integra dentro de <strong>Dream Machine, la plataforma de Luma para generaci\u00f3n y modificaci\u00f3n de v\u00eddeo con IA<\/strong>, seg\u00fan detalla la nota de prensa. La empresa recuerda que ya hab\u00eda introducido funciones de modificaci\u00f3n de v\u00eddeo en junio de 2025 y que <strong>este nuevo modelo refuerza esa apuesta por preservar la actuaci\u00f3n humana<\/strong> en los proyectos audiovisuales.<\/p> <p>De acuerdo con la compa\u00f1\u00eda, todas estas herramientas encajan en la misma idea: <strong>combinar captura real y manipulaci\u00f3n inteligente<\/strong> sin que el espectador note cortes raros o cambios poco cre\u00edbles de personaje. Luma sit\u00faa esta propuesta en un mercado de <strong>IA para edici\u00f3n de v\u00eddeo cada vez m\u00e1s competido<\/strong>, donde nombres como Runway o Kling ofrecen generaci\u00f3n a partir de texto e imagen.<\/p> <p>La fuente apunta que, mientras otras plataformas se apoyan m\u00e1s en la creaci\u00f3n \u201cdesde cero\u201d, Luma apuesta por modelos como Ray3 Modify, que <strong>se agarran al material rodado para mantener el trabajo de actores y c\u00e1mara<\/strong>. Seg\u00fan la empresa, esto ofrece a los usuarios una opci\u00f3n m\u00e1s orientada a <strong>postproducci\u00f3n y adaptaci\u00f3n de contenido ya existente<\/strong>, en lugar de limitarse al v\u00eddeo puramente sint\u00e9tico.<\/p> <h2><span class=\"ez-toc-section\" id=\"Financiacion_millonaria_y_gran_infraestructura_de_IA\"><\/span>Financiaci\u00f3n millonaria y gran infraestructura de IA<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>El lanzamiento de Ray3 Modify llega, seg\u00fan la nota, tras <strong>una gran ronda de financiaci\u00f3n de 900 millones de d\u00f3lares anunciada en noviembre de 2025<\/strong>. La fuente indica que esta inyecci\u00f3n de capital explica en parte el ritmo al que <strong>Luma est\u00e1 lanzando nuevas capacidades para v\u00eddeo y modelos 3D<\/strong>, en un segmento donde se compite por escala y potencia de c\u00f3mputo.<\/p> <p>De acuerdo con la compa\u00f1\u00eda, la ronda ha sido liderada por <strong>Humain, una empresa de IA propiedad del fondo soberano saud\u00ed Public Investment Fund<\/strong>. Tambi\u00e9n han participado inversores ya presentes en el proyecto, como <strong>a16z, Amplify Partners y Matrix Partners<\/strong>, lo que, seg\u00fan la fuente, refleja que el plan de Luma sigue generando confianza en el sector tecnol\u00f3gico.<\/p> <p>La nota a\u00f1ade que Luma no solo invierte en modelos como Ray3 Modify, sino tambi\u00e9n en la infraestructura que los soporta, con <strong>planes para construir junto a Humain un cl\u00faster de IA de 2 gigavatios en Arabia Saud\u00ed<\/strong>. Seg\u00fan la empresa, esta capacidad permitir\u00e1 <strong>ejecutar modelos de v\u00eddeo generativo avanzados y entrenar nuevas versiones<\/strong>, manteniendo servicios como Dream Machine con tiempos de respuesta razonables incluso con muchos usuarios.<\/p> <h2><span class=\"ez-toc-section\" id=\"Que_puede_suponer_Ray3_Modify_para_los_creadores\"><\/span>Qu\u00e9 puede suponer Ray3 Modify para los creadores<span class=\"ez-toc-section-end\"><\/span><\/h2> <p>Seg\u00fan la fuente, Ray3 Modify se posiciona como <strong>una herramienta clave para quienes quieren combinar rodaje tradicional e IA de v\u00eddeo<\/strong> sin renunciar a la interpretaci\u00f3n humana. La compa\u00f1\u00eda sostiene que, con este modelo, se pueden <strong>cambiar actores, vestuario y escenarios<\/strong>, controlar transiciones con fotogramas de inicio y fin y generar m\u00faltiples versiones de una misma escena desde Dream Machine.<\/p> <p>Para estudios, marcas y creadores individuales, la nota resume que esta propuesta ofrece <strong>m\u00e1s flexibilidad creativa sin disparar el coste de producci\u00f3n<\/strong>. De acuerdo con Luma, la gran diferencia est\u00e1 en poder <strong>apoyarse siempre en el metraje real que ya se tiene<\/strong>, y no partir de cero cada vez que se quiere probar una idea nueva o adaptar una campa\u00f1a a otro mercado.<\/p>\n\n\n\n<p>Fuente: https:\/\/lumalabs.ai\/ray<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La compa\u00f1\u00eda Luma ha presentado Ray3 Modify, un nuevo modelo de IA de v\u00eddeo pensado para transformar metraje real ya &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"Luma lanza Ray3 Modify, su nuevo modelo de IA para \u201cvolver a rodar\u201d v\u00eddeos sin repetir el rodaje\" class=\"read-more button\" href=\"https:\/\/quondos.com\/mag\/luma-lanza-ray3-modify-su-nuevo-modelo-de-ia-para-volver-a-rodar-videos-sin-repetir-el-rodaje\/#more-129998\" aria-label=\"Leer m\u00e1s sobre Luma lanza Ray3 Modify, su nuevo modelo de IA para \u201cvolver a rodar\u201d v\u00eddeos sin repetir el rodaje\">Leer m\u00e1s<\/a><\/p>\n","protected":false},"author":850,"featured_media":129999,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1474],"tags":[],"class_list":["post-129998","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","generate-columns","tablet-grid-50","mobile-grid-100","grid-parent","grid-50","no-featured-image-padding"],"_links":{"self":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129998","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/users\/850"}],"replies":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/comments?post=129998"}],"version-history":[{"count":1,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129998\/revisions"}],"predecessor-version":[{"id":130000,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/posts\/129998\/revisions\/130000"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media\/129999"}],"wp:attachment":[{"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/media?parent=129998"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/categories?post=129998"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/quondos.com\/mag\/wp-json\/wp\/v2\/tags?post=129998"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}