Mistral 3ファミリーが登場、Apache 2.0のオープンモデルでエッジAIが現実に

AI・自動化
スポンサーリンク

Mistral AIがMistral 3ファミリーをリリースした。

Apache 2.0ライセンスのオープンモデルで、クラウドからエッジデバイスまでカバーする構成だ。

スポンサーリンク

ラインナップ

Mistral 3ファミリーは用途別に複数のモデルで構成されている。

Mistral Large 3は675Bパラメータ、MoE(Mixture of Experts)構造の最上位モデル。性能的にはGPT-5やClaude Opus 4.6と同じ土俵で戦えるクラスだが、Apache 2.0で完全オープンという点が決定的に異なる。商用利用も制限なし。

Ministral 3シリーズは3B、8B、14Bの3サイズ展開で、エッジ向けに最適化されている。ノートPC、スマートフォン、ドローンといったデバイス上での直接実行を想定して設計された。

注目すべき派生モデル

Devstral 2はコーディング特化モデルで、123Bパラメータ。SWE-benchでの評価がClaude Sonnet 4.6に迫る水準と報告されている。オープンソースのコーディングモデルとしては最高クラスだ。

Voxtral Realtimeは音声モデルで、200msの低遅延でリアルタイム音声認識と翻訳が可能。音声入力付きのアプリケーションを作りたい開発者にとって、API経由でWhisperの代替になり得る選択肢だ。

ローカルLLMユーザーへの影響

Mistral Large 3の675Bは一般的なPCでは動かせないが、Ministral 3の3B〜14Bは現実的に使える。

8BモデルならRTX 3060(12GB VRAM)でも動くし、3Bモデルはスマートフォンでも推論可能だ。Ollamaやllama.cppで動かせる量子化版も既にコミュニティから出始めている。

Qwen 2.5やLlama 3.1と比較してどの程度の実力があるかはベンチマーク次第だが、Apache 2.0という商用フレンドリーなライセンスは大きな利点だ。

なぜオープンなのか

Mistral AIはフランスのスタートアップで、「オープンソースAI」を売りにして差別化してきた企業だ。

OpenAIやAnthropicがクローズドモデルで収益化する中、Mistralはモデル自体を無料公開し、APIプラットフォームやエンタープライズ契約で収益を上げるモデルを取っている。

開発者にとっては「無料で使えるが性能は妥協なし」という選択肢が増えることは素直にありがたい。

モデル比較表

モデルパラメータ構造用途ライセンス
Mistral Large 3675BMoE汎用最上位Apache 2.0
Devstral 2123BDenseコーディング特化Apache 2.0
Ministral 3 14B14BDenseエッジ(高性能)Apache 2.0
Ministral 3 8B8BDenseエッジ(標準)Apache 2.0
Ministral 3 3B3BDenseモバイル/IoTApache 2.0
Voxtral Realtime音声(200ms遅延)Apache 2.0

クローズドモデルとの比較:

比較軸Mistral Large 3GPT-5.3Claude Opus 4.6
ライセンスApache 2.0クローズドクローズド
API料金無料(セルフホスト)$15/1M入力$15/1M入力
セルフホスト可能不可不可
ファインチューニング自由API経由のみ不可

わさびの評価

Mistral 3ファミリーで一番面白いのはDevstral 2だと思う。

123Bパラメータのコーディングモデルがオープンソースで使えるのは、ローカル開発環境を自前で構築したい人にとって大きい。Claude CodeやCopilotに月額を払わずに、自分のGPUでコード生成を回せる。

ただし現実的には、675Bや123Bを動かすにはA100×8枚クラスのGPU環境が必要で、個人には厳しい。本当に恩恵を受けるのは8Bモデルを日常使いするローカルLLMユーザーだろう。

あわせて読みたい

コメント

タイトルとURLをコピーしました