Metaは、画像と動画内の物体をリアルタイムで認識・分離するAIモデル「Segment Anything Model 2(SAM 2)」を発表しました。SAM 2は、動画内の対象物を追跡し続けることができるモデルです。学
続きを読む
Metaは、画像と動画内の物体をリアルタイムで認識・分離するAIモデル「Segment Anything Model 2(SAM 2)」を発表しました。SAM 2は、動画内の対象物を追跡し続けることができるモデルです。学
続きを読むMetaのMeta.aiで、最新のオープンソース言語モデル「Llama 3.1 405B」を試してみました。 現在Meta.aiはアメリカからのみ利用可能となっています。筆者はアメリカ在住ですが、なぜか日本からのアクセス
続きを読むMetaは、大規模なオープンソース言語モデル「Llama 3.1」を発表しました。今年の4月にリリースされた8B(80億)と70B(700億)パラメータのモデルに続き、今回は今まで最大の405B(4,050億)パラメータ
続きを読むAppleとMeta(旧Facebook)が、AI技術の提携について協議を進めていると、ウォール・ストリート・ジャーナル(WSJ)によって報じられました。長年のライバル関係にあった両社のこの動きは、若干の驚きを持って報じ
続きを読むMetaのFundamental AI Research(FAIR)が、新たに複数のオープンソースモデルを発表しました。この発表には、マルチモーダルな言語タスクや、テキストから音楽・音声への生成、AI生成音声の検出など、
続きを読むElevenLabsのSound Effects機能を試してみました。この機能は、プロンプトを入力すると、それに応じた効果音を生成してくれるというものです。 使い方は非常にシンプルで、MetaのAudioboxの中でも同
続きを読むOpenAIやGoogleに続き、Meta社が新たなマルチモーダルAIモデル「Chameleon」を発表しました。生成AI分野の競争が、テキストだけでなく画像や音声、動画を一元的に扱うマルチモーダルモデルへと移行する中、
続きを読むMetaが新たにリリースしたLlama3を搭載したmeta.aiを試してみました。残念ながら、現時点では日本語に完全には対応していないようで、大部分は英語で試すことになりました。 筆者は主に要約や文章生成のタスクを試して
続きを読むMetaが次世代のオープンソース大規模言語モデル「Llama 3」を発表しました。今回発表された8Bと70Bのパラメータを持つバージョンは、様々な評価ベンチマークにおいて競合するオープンソースモデルを上回る性能を示してい
続きを読む米国時間4月5日、Metaは、AI生成コンテンツへの対応方針の見直しを発表しました。 Metaは、独立した監督委員会からの意見を取り入れ、2024年5月から、AIで生成または操作された画像、動画、音声など、幅広いコンテン
続きを読む連日AIチップのニュースが発表されています。今回、Meta(旧フェイスブック)が、次世代のカスタムAIチップ「Meta Training and Inference Accelerator (MTIA)」ファミリーのバー
続きを読む先日OpenAIの音声クローニング技術に関するニュースが話題になりましたので、興味を持ち、先行して昨年末に発表されていたMetaの同様の技術、Audioboxを遅ればせながら試してみました。 Audioboxにはいくつか
続きを読む