Luma Labs、次世代の動画生成モデル「 Ray 2 」を発表

投稿者:

米 サンフランシスコ にある Luma Labs が、最新の AI ビデオ生成モデル「 Ray 2 」を発表しました。このモデルは、前モデルの Ray 1 と比較して 10 倍の計算能力を持つ新しいマルチモーダルアーキテクチャを採用し、動きの質と物理的なリアリズムを大幅に向上させています。

Ray 2 は、テキストプロンプトから 5 ~ 10 秒の高解像度ビデオ(最大 1080p )を生成できます。また、自然な動きとオブジェクト間の相互作用を再現し、より没入感のあるリアルなビデオを生成できるようになったとのこと。滑らかなトランジションと詳細なアニメーションにより、プロフェッショナルな品質のコンテンツを生成することも可能です。

現在はテキストからビデオへの生成機能のみをサポートしていますが、将来的には画像からビデオ、ビデオからビデオ、編集機能も追加される予定です。Ray 2 は、Luma Labs の「 Dream Machine 」プラットフォームや Amazon の AWS Bedrock を通じて利用可能で、無料プランと有料プランが提供されています。


筆者の視点:Ray 2 をテストしたユーザーの印象としては、競合のモデルと比べて性能が突出しているということではないようです。物理法則にきちんと則った映像を作るところは各社苦労していますが、今回の Ray 2 も、例えば複雑に動いている足が途中で前後逆になってしまったり、という不具合は若干残ってしまっているとのこと。ただ、前回のバージョンより格段に良くなっていることは確かで、着実な進歩を遂げている様子が窺えます。