Computex 2023の開催期間中、業界関係者から注目を集めていたデモンストレーションがありました。それは、米国の半導体メーカーNvidiaが展開したもので、AI(人工知能)がゲームキャラクターとリアルタイムで対話する様子を見せたのです。
このデモでは、新たに開発された「Avatar Cloud Engine(ACE)」という技術が披露されました。その主な特徴は、ゲーム内のNPC(Non Player Character)の作成を効率化すること。AI技術を駆使して、プレイヤーのインプットに応じて会話を行うとともに、リアリティあふれる表情を浮かべることが可能です。
このACEの開発には、スタートアップ企業Convaiとのコラボレーションが行われました。彼らは、「AIキャラクターを作成・配置するためのプラットフォーム」を作ることで、ゲームにACEモジュールを最適化して統合します。これにより、NPCを現実的かつ低コストで開発することが可能になります。
ACEの仕組みは、Nvidiaの別のAIモデル「Riva」や「NeMo」を利用します。これらのAIモデルは、音声認識と音声合成、大規模な会話モデルを生成し、声入力から顔のアニメーションを生成する「Audio2Face」を含みます。
NvidiaがComputex 2023で展開したデモ映像では、ゲーム内でMetaHumanというNPC「Jin」とプレイヤー「Kai」がラーメン屋での対話を楽しんでいる様子が描かれています。ここでは、ACEの能力が最大限に発揮され、NPCがどれほど進化しているのかを実感することができます。
この技術の活用は、すでに開始されており、GSC Game Worldが開発中の「S.T.A.L.K.E.R. 2: Heart of Chornobyl」やインディーゲーム開発者Fallen Leafの「Fort Solis」などで利用されています。
ACEは、ゲーム制作のプロセスを大幅に効率化し、ゲーム内の会話や表情をリアルにするだけでなく、メタバース(仮想現実空間)の充実度を高めることも期待されています。近年、メタバースのブームが一部で下火になりつつありますが、NvidiaとConvaiの技術が生み出すリアルなAIキャラクターの存在が、この状況を再び盛り上げる可能性を秘めています。