Liquid AIが革新的なAIモデル「Liquid Foundation Models」を発表 高性能とメモリ効率を実現

投稿者:

MITのスピンオフ企業であるLiquid AIが、従来のトランスフォーマーアーキテクチャとは異なる新しいAIモデルシリーズ「Liquid Foundation Models (LFMs)」を発表しました。LFMsは、少ないメモリで高性能を実現し、様々な種類のデータを処理できる、まさに次世代のAIモデルです。

従来のAIモデルの多くは、「トランスフォーマー」と呼ばれるアーキテクチャを採用しています。しかし、LFMsは動的システム理論、信号処理、数値線形代数といった、全く異なる分野の技術を基盤に開発されました。

その結果、従来のモデルに比べて、以下の点で優れた性能を発揮します。

  • 省メモリ: 同じタスクを、より少ないメモリで実行できます。
  • 高精度: 少ないパラメータ数でも、従来のモデルと同等以上の精度を実現します。
  • 多用途: テキスト、音声、画像、動画など、様々な種類のデータを処理できます。

Liquid AIは、3つの異なる規模のLFMsを公開しました。

  • LFM-1B: 約10億パラメータの小型モデル。
  • LFM-3B: 約30億パラメータの中型モデル。エッジデバイスへの搭載に最適です。
  • LFM-40B: 約400億パラメータの大規模モデル。「Mixture of Experts (MoE)」と呼ばれる技術を採用し、複雑なタスクにも対応できます。

これらのモデルは、金融、バイオテクノロジー、家電など、幅広い分野での活用が期待されています。Liquid Playground、Lambda、Perplexity Labsといったプラットフォームで、実際に試用することも可能です。

さらに、Liquid AIは、NVIDIA、AMD、Qualcomm、Cerebras、Appleなど、様々なハードウェアへの最適化を進めています。これにより、LFMsは、より多くの環境で利用できるようになり、AIの普及を加速させることが期待されます。

Liquid AIは、MITのコンピュータ科学・人工知能研究所(CSAIL)からスピンオフした人工知能のスタートアップ企業で、シード資金として4,660万ドル(約69億円)を調達し、高性能で信頼性の高いAIシステムの開発を目指しています。