マイクロソフトが独自の大規模言語モデル(LLM)開発に乗り出しました。「MAI-1」と名付けられたこのモデルは、約500Bのパラメータを持つと報じられています。OpenAIやAnthropicをはじめとする他社の最先端AIモデルに対抗するための取り組みと見られます。
MAI-1の開発は、AI スタートアップ「Inflection」の買収に伴ってマイクロソフトに入社したMustafa Suleyman氏が率いています。Suleyman氏は、以前はGoogleのDeepMindの共同創設者を務めていました。MAI-1はInflectionのモデルをベースにしているわけではありませんが、同社の技術やトレーニング手法が新しいシステムに活かされていくものと思われます。
500Bのパラメータを持つMAI-1は、マイクロソフトがこれまでオープンソースとして公開してきたモデルよりも大規模です。例えば、先日発表された同社の「Phi-3 mini」は40B弱のパラメータとなっています。(ただ、OpenAIやGoogleのトップのモデルはTrillion+パラメータと言われており、それよりはだいぶ小規模です)
MAI-1の登場と、より小規模でデバイス上で動作可能なPhiファミリーの存在により、マイクロソフトはAIの広い領域をカバーしつつ、OpenAIへの依存度を下げる体制を整えつつあるように見えます。
ただ、OpenAIは近いうちにGPT-5のリリースが噂されており、この先もしばらくは業界のリーダー的存在であり続けていくでしょう。そのため、マイクロソフトがOpenAIとの関係を完全に断つというよりは、用途に応じて使い分けていく方針を取るのではないかと思われます。ただし、いずれマイクロソフト独自のモデルの性能がOpenAIに追いついた場合、状況は変わってくるかもしれません。
OpenAI側から見ても、マイクロソフトへの依存度が下がることで、より自由な事業展開が可能になるというメリットが考えられます。先日、AppleがOpenAIとの提携に向けて具体的な協議を進めているというニュースもありましたが、今回のマイクロソフトの動きがこれに影響を与えているのかもしれません。
MAI-1の登場は、大規模言語モデルを巡る競争が新たな局面を迎えたことを示しています。マイクロソフトとOpenAIの関係がどのように変化していくのか、注目が集まります。