Pika Labs、最新のAIビデオ生成モデル「Pika 2.0」をリリース

投稿者:

Pika Labsが最新のAIビデオ生成モデル「Pika 2.0」をリリースしました。

Pika 2.0の主要な新機能は「Scene Ingredients(シーン素材)」機能で、ユーザーが自分で用意した画像(人物、物体、背景など)をAIビデオに組み込むことが可能になりました。複数の視覚要素を組み合わせて、一貫性のあるシーンを作成できます。例えば、人物の写真と猫の画像をアップロードし、それらが相互作用するシーンを生成することなどが可能です。

技術的な改善点としては、より自然な動きとリアルな物理演算の実現、テキストプロンプトとの整合性の向上による正確な映像生成、キャラクターの一貫性の大幅な改善などが挙げられます。

Pika 2.0は、Pro版とFancy版のサブスクリプションプランで利用可能で、OpenAIのSoraと異なり、欧州連合(EU)のユーザーも利用可能です。すでに1,100万人以上のユーザーが利用しています。

Pika Labsはスタンフォード大学の学生であるDemi GuoとChenlin Mengが設立し、Google、Meta、Uberの元AI研究者らがチームに参加しています。現在の企業価値は4億7000万ドル(約719億円)で、先日8000万ドル(約123億円)の資金調達に成功しています。

先日OpenAIのSoraが正式リリースされましたが、競合の動画生成モデルも遅れを取らないように実際の制作現場で重宝するような機能を着々と充実させてきています。