Lightricks ha dado un paso relevante en el ecosistema de la inteligencia artificial generativa al publicar como código abierto su modelo de video LTX-2, una tecnología diseñada para la generación conjunta de video y audio sincronizados. La compañía, conocida por herramientas creativas como Facetune o Videoleap, apuesta así por un enfoque abierto en un mercado dominado por soluciones cerradas y propietarias.
LTX-2 se presenta como uno de los primeros modelos de generación audiovisual verdaderamente open source y listos para producción, ya que Lightricks ha liberado no solo el código, sino también los pesos completos del modelo, junto con herramientas de inferencia y entrenamiento. Esto permite a desarrolladores, investigadores y creadores ejecutar el sistema localmente, adaptarlo o integrarlo en flujos de trabajo propios sin depender de APIs externas.
Uno de los aspectos más destacados de LTX-2 es su capacidad para generar video y audio de forma simultánea en una sola pasada. A diferencia de otros enfoques que producen primero el video y luego añaden el sonido mediante modelos separados, LTX-2 crea ambos elementos de manera unificada, lo que mejora la coherencia temporal entre imagen, diálogo, efectos sonoros y música ambiental. Este diseño reduce artefactos y desajustes que suelen aparecer en procesos fragmentados.
En términos técnicos, el modelo es capaz de generar clips de hasta 20 segundos en resolución nativa 4K y altas tasas de fotogramas, lo que lo sitúa en un nivel competitivo frente a soluciones comerciales de última generación. Además, Lightricks ha trabajado en optimizaciones que permiten ejecutar LTX-2 en hardware de consumo, especialmente GPUs modernas, sin necesidad de infraestructuras de nube costosas.
La decisión de liberar LTX-2 como open source tiene implicaciones importantes para la industria. Por un lado, reduce la barrera de entrada a la generación de video avanzada, permitiendo que pequeños estudios, creadores independientes y equipos de investigación experimenten con tecnología de alto nivel. Por otro, fomenta la transparencia y la auditabilidad, aspectos cada vez más demandados en sistemas de IA complejos.
Lightricks también ha señalado que LTX-2 está pensado como una base sobre la que otros puedan construir. El acceso al código de entrenamiento facilita tareas de fine-tuning, adaptación a estilos concretos o especialización en dominios específicos, como publicidad, contenido educativo o simulaciones visuales. Este enfoque contrasta con modelos cerrados donde los usuarios solo interactúan mediante interfaces limitadas.
El lanzamiento se produce en un contexto de fuerte competencia en el ámbito del video generativo, con grandes empresas desarrollando modelos propios que no están disponibles de forma abierta. En este escenario, LTX-2 se posiciona como una alternativa abierta que prioriza el control del usuario y la experimentación, aunque todavía queda por ver hasta qué punto la comunidad adoptará y ampliará el modelo en los próximos meses.
Desde el punto de vista creativo, la generación audiovisual sincronizada abre nuevas posibilidades para narrativas cortas, prototipos de animación, contenido para redes sociales y pruebas conceptuales, reduciendo tiempos de producción y dependencia de múltiples herramientas. La posibilidad de ejecutar el modelo localmente también resulta atractiva para entornos donde la privacidad o la latencia son factores clave.
Con la liberación de LTX-2, Lightricks refuerza su presencia en el campo de la IA generativa más allá de las aplicaciones comerciales y apuesta por un modelo de innovación abierta, alineado con comunidades de desarrolladores y creadores. El impacto real del proyecto dependerá ahora de su adopción, de las contribuciones externas y de la evolución futura del modelo dentro del ecosistema open source.





