MITのスピンオフ企業であるLiquid AIが、従来のトランスフォーマーアーキテクチャとは異なる新しいAIモデルシリーズ「Liquid Foundation Models (LFMs)」を発表しました。LFMsは、少ないメモリで高性能を実現し、様々な種類のデータを処理できる、まさに次世代のAIモデルです。
従来のAIモデルの多くは、「トランスフォーマー」と呼ばれるアーキテクチャを採用しています。しかし、LFMsは動的システム理論、信号処理、数値線形代数といった、全く異なる分野の技術を基盤に開発されました。
その結果、従来のモデルに比べて、以下の点で優れた性能を発揮します。
- 省メモリ: 同じタスクを、より少ないメモリで実行できます。
- 高精度: 少ないパラメータ数でも、従来のモデルと同等以上の精度を実現します。
- 多用途: テキスト、音声、画像、動画など、様々な種類のデータを処理できます。
Liquid AIは、3つの異なる規模のLFMsを公開しました。
- LFM-1B: 約10億パラメータの小型モデル。
- LFM-3B: 約30億パラメータの中型モデル。エッジデバイスへの搭載に最適です。
- LFM-40B: 約400億パラメータの大規模モデル。「Mixture of Experts (MoE)」と呼ばれる技術を採用し、複雑なタスクにも対応できます。
これらのモデルは、金融、バイオテクノロジー、家電など、幅広い分野での活用が期待されています。Liquid Playground、Lambda、Perplexity Labsといったプラットフォームで、実際に試用することも可能です。
さらに、Liquid AIは、NVIDIA、AMD、Qualcomm、Cerebras、Appleなど、様々なハードウェアへの最適化を進めています。これにより、LFMsは、より多くの環境で利用できるようになり、AIの普及を加速させることが期待されます。
Liquid AIは、MITのコンピュータ科学・人工知能研究所(CSAIL)からスピンオフした人工知能のスタートアップ企業で、シード資金として4,660万ドル(約69億円)を調達し、高性能で信頼性の高いAIシステムの開発を目指しています。