Lightricks は、2025年10月23日にプロの制作ワークフロー向けに設計された、次世代のオープンソース AI 動画基盤モデル「LTX-2」を発表しました。このモデルは、リアルタイムでの制作を念頭に、高品質な映像と同期したオーディオ生成、そして高い効率性を兼ね備えています。
LTX-2 の最大の特徴の一つは、音声と映像を単一のプロセスで同時に生成する能力です。多くの既存モデルが映像を生成した後に音声を付加するアプローチを取るのに対し、LTX-2 は動きや対話、音楽、雰囲気を自然なタイミングで同期させることが可能です。これにより、予告編や製品デモなど、より意図に沿ったコンテンツ制作が実現します。
性能面では、最大でネイティブ 4K 解像度、50 fps(フレーム/秒)という「映画のような忠実度」の映像を生成できます。クリップの長さは最大 15 秒まで対応しており、Full HD 解像度であれば 6 秒間の動画をわずか 5 秒で生成できる高速性も誇ります。さらに、コンシューマー向け GPU で効率的に動作するよう最適化されており、競合モデルと比較して最大 50% 低い計算コストでプロ品質の結果を提供できるとしています。
Lightricks は、この LTX-2 のデータセットや推論ツールを含むコアコンポーネントを GitHub で公開しており、モデルのウェイトも今年の秋に公開予定です。このオープンソース戦略は、OpenAI の Sora 2 や Google の Veo 3.1 といったクローズドなモデルとは一線を画すものです。研究者や開発者が自由にモデルをカスタマイズできる協調的なエコシステムを構築することで、AI 動画生成技術の発展を促す狙いがあります。
LTX-2 は、プロのクリエイター、スタジオ、開発者を主な対象としており、テキスト、画像、深度マップ、参照ビデオなど多様な入力から、ペースや動きを細かく制御できる機能も備えています。この新しいオープンソースモデルが、今後のクリエイティブ業界にどのような変化をもたらすか注目されます。
(798文字)
