Meta、AIの新モデルとデータセットを次々と発表 – 音声言語モデルやLLM高速化技術など

投稿者:

MetaのAI研究チームであるFAIRは、AIの性能向上や応用範囲の拡大に貢献するいくつかの研究成果を発表しました。

まず、画像セグメンテーションツール「Segment Anything Model (SAM)」の改良版であるSAM 2.1が公開されました。このバージョンでは、オブジェクト追跡の性能が向上し、視覚的に似たオブジェクトの識別精度も大幅に改善されています。医療画像解析やビデオ分析など、さまざまな分野での応用が期待されています。

次に、テキストと音声を統合したマルチモーダル言語モデル「Meta Spirit LM」が登場しました。このモデルは、より自然で表現力豊かな音声生成を可能にし、感情や抑揚を加えたバージョンも提供されています。これにより、音声とテキストを組み合わせた新しいAIアプリケーションの開発が今後ますます加速することが予想されます。

さらに、大規模言語モデル(LLM)の生成速度を向上させる「Layer Skip」という技術も発表されました。この技術により、特殊なハードウェアを必要とせずにLLMの処理速度を向上させ、より多くの開発者がLLMを活用しやすくなることが目指されています。

その他、暗号システムに対するAI攻撃のベンチマークや、80言語に対応した文エンコーダーなど、AIの性能評価や多言語化に関連する研究成果も公開されています。

Metaは、これらの最新技術をオープンに提供することで、AI分野全体の進化を加速し、責任あるAI開発を促進しようとしています。これからもMetaによる革新的な研究に注目が集まります。