Google は 2025 年 7 月、医療 AI オープンモデルスイート「 MedGemma 」の最新バージョンを発表しました。今回のアップデートでは、「 MedGemma 27B 」と「 MedSigLIP 」という 2 つの新モデルが追加されています。
MedGemma 27B は 270 億パラメータを持つマルチモーダルモデルで、医療画像( X 線、皮膚科、眼科、病理画像など)と電子カルテテキストの両方を処理することができます。小型モデルと比較して、診断 QA や画像分類などの医療特化タスクのベンチマークで大幅な性能向上を実現しており、 X 線分類では 15 ポイント以上、臨床 QA では 10 ポイントの向上が報告されています。
一方、 MedSigLIP は 4 億パラメータの軽量な画像・テキストエンコーダーで、医療画像とテキストを同じデータ形式で扱えるように変換します。単一の GPU で動作可能な設計となっており、画像分類、ゼロショット分類、類似画像検索など幅広い用途に適用できます。
両モデルは医療 AI の開発・研究コミュニティに向けて無償で公開されており、 Hugging Face や Google Cloud Vertex AI で利用可能です。米国の DeepHealth では胸部 X 線のトリアージや結節検出に、台湾の Chang Gung Memorial Hospital では中国語の医療文献への対応に、インドの Tap Health では患者ノート要約などに活用されるなど、すでに世界各地で活用が始まっています。
これらのオープンソースモデルの提供により、医療機関や研究機関は患者データのプライバシーを保護しつつ、特定のニーズに合わせた AI ツールを構築できるようになります。 Google は、これらのモデルが医師を置き換えるものではなく、臨床での使用には適切な検証と人間の監督が必要だと強調しています。