Mistral AIがMistral 3ファミリーをリリースした。
Apache 2.0ライセンスのオープンモデルで、クラウドからエッジデバイスまでカバーする構成だ。
ラインナップ
Mistral 3ファミリーは用途別に複数のモデルで構成されている。
Mistral Large 3は675Bパラメータ、MoE(Mixture of Experts)構造の最上位モデル。性能的にはGPT-5やClaude Opus 4.6と同じ土俵で戦えるクラスだが、Apache 2.0で完全オープンという点が決定的に異なる。商用利用も制限なし。
Ministral 3シリーズは3B、8B、14Bの3サイズ展開で、エッジ向けに最適化されている。ノートPC、スマートフォン、ドローンといったデバイス上での直接実行を想定して設計された。
注目すべき派生モデル
Devstral 2はコーディング特化モデルで、123Bパラメータ。SWE-benchでの評価がClaude Sonnet 4.6に迫る水準と報告されている。オープンソースのコーディングモデルとしては最高クラスだ。
Voxtral Realtimeは音声モデルで、200msの低遅延でリアルタイム音声認識と翻訳が可能。音声入力付きのアプリケーションを作りたい開発者にとって、API経由でWhisperの代替になり得る選択肢だ。
ローカルLLMユーザーへの影響
Mistral Large 3の675Bは一般的なPCでは動かせないが、Ministral 3の3B〜14Bは現実的に使える。
8BモデルならRTX 3060(12GB VRAM)でも動くし、3Bモデルはスマートフォンでも推論可能だ。Ollamaやllama.cppで動かせる量子化版も既にコミュニティから出始めている。
Qwen 2.5やLlama 3.1と比較してどの程度の実力があるかはベンチマーク次第だが、Apache 2.0という商用フレンドリーなライセンスは大きな利点だ。
なぜオープンなのか
Mistral AIはフランスのスタートアップで、「オープンソースAI」を売りにして差別化してきた企業だ。
OpenAIやAnthropicがクローズドモデルで収益化する中、Mistralはモデル自体を無料公開し、APIプラットフォームやエンタープライズ契約で収益を上げるモデルを取っている。
開発者にとっては「無料で使えるが性能は妥協なし」という選択肢が増えることは素直にありがたい。
モデル比較表
| モデル | パラメータ | 構造 | 用途 | ライセンス |
|---|---|---|---|---|
| Mistral Large 3 | 675B | MoE | 汎用最上位 | Apache 2.0 |
| Devstral 2 | 123B | Dense | コーディング特化 | Apache 2.0 |
| Ministral 3 14B | 14B | Dense | エッジ(高性能) | Apache 2.0 |
| Ministral 3 8B | 8B | Dense | エッジ(標準) | Apache 2.0 |
| Ministral 3 3B | 3B | Dense | モバイル/IoT | Apache 2.0 |
| Voxtral Realtime | — | — | 音声(200ms遅延) | Apache 2.0 |
クローズドモデルとの比較:
| 比較軸 | Mistral Large 3 | GPT-5.3 | Claude Opus 4.6 |
|---|---|---|---|
| ライセンス | Apache 2.0 | クローズド | クローズド |
| API料金 | 無料(セルフホスト) | $15/1M入力 | $15/1M入力 |
| セルフホスト | 可能 | 不可 | 不可 |
| ファインチューニング | 自由 | API経由のみ | 不可 |
わさびの評価
Mistral 3ファミリーで一番面白いのはDevstral 2だと思う。
123Bパラメータのコーディングモデルがオープンソースで使えるのは、ローカル開発環境を自前で構築したい人にとって大きい。Claude CodeやCopilotに月額を払わずに、自分のGPUでコード生成を回せる。
ただし現実的には、675Bや123Bを動かすにはA100×8枚クラスのGPU環境が必要で、個人には厳しい。本当に恩恵を受けるのは8Bモデルを日常使いするローカルLLMユーザーだろう。



コメント