ByteDance は 2026 年 2 月 12 日、AI 動画生成ツール「Seedance 2.0」を正式発表しました。2 月 7 日にベータ版がリリースされた本ツールは、テキストプロンプトから最大 20 秒のシネマティック動画を生成できる次世代モデルです。
Seedance 2.0 は、前バージョンの 5〜8 秒から 4〜15 秒へと動画生成時間が延長され、ネイティブ 4K 出力に対応しました。テクスチャの精細度は 300% 向上し、生成速度も最大 30% 高速化されています。テキスト、画像、音声、動画の 4 種類の入力に対応し、最大 9 枚の画像、3 つの動画クリップ、3 つの音声ファイルを同時に扱えます。
最大の特徴は、動画と音声を同時生成する音声-映像同期機能です。対話や環境音、効果音をフレームごとに同期させることで、他の AI 動画モデルにはない表現力を実現しています。また、物理法則を考慮したトレーニングにより、重力や運動量といった物理的に自然な動きを生成できる点も特筆されます。
初期ベータユーザーからは、OpenAI の Sora 2 や Kuaishou の Kling 3.0 に匹敵、あるいはそれを上回るとの評価を得ています。Hugging Face の研究者は「シンプルなプロンプトでも初回で満足できる結果が得られる、最も総合力の高い動画生成モデルの 1 つ」と評価しました。
現在は ByteDance の Jimeng AI(中国向け)と Dreamina AI(国際向け)で限定ベータテスト中で、利用には有料サブスクリプションが必要です。オープンソースではなく、商用サービスとして提供されています。中国では Weibo 上で本ツールで作成された短編映画が数百万回視聴され、Elon Musk も反応するなど大きな話題となりました。
一方で著作権問題も浮上しています。Disney は ByteDance に停止命令書を送付し、Star Wars や Marvel などのキャラクターの無断使用を指摘しました。Motion Picture Association の Charles Rivkin 会長も、米国の著作物が大規模に無断使用されているとして非難する声明を発表しています。
グローバル版は 2 月中旬のリリースが予定されており、映画制作、広告、電子商取引向けコンテンツ制作などプロフェッショナル用途での活用が期待されています。
