LLM API料金比較【2026年2月最新】Claude・GPT・Gemini・DeepSeekの単価一覧

25
スポンサーリンク
※ 本記事には広告・PR(アフィリエイト)リンクが含まれています
📋 Claude Code 知識メモ(クリックで展開)

CLAUDE.md に追記して知識として注入

# LLM API料金比較【2026年2月最新】Claude・GPT・Gemini・DeepSeekの単価一覧

> ソース: https://akahara-vlab.com/llm-api-pricing/
> 日付: 

## 要点

LLM API料金比較Claude・GPT・Gemini・DeepSeekの単価一覧

## 使い方

このテキストを `CLAUDE.md` に追記することで、Claude Codeがこの知識を参照できるようになります。

※ 平文なので中身を確認してから使ってください。安全性は目視で確認できます。

LLM APIを選ぶとき、性能だけでなくコストは避けて通れない。同じタスクでも、モデル選択次第でAPI費用は10倍以上変わる。この記事では2026年2月時点の主要LLMの料金を数値で整理し、用途別の最適解を示す。

スポンサーリンク

結論:用途別おすすめ3行

  • バッチ処理・大量データ: Gemini 2.5 Flash($0.15/1M tokens、最安水準)またはDeepSeek V3.2($0.27)
  • コーディング・複雑推論: Claude Sonnet 4.6($3/$15、品質とコストのバランスが最良)
  • 汎用・長文コンテキスト: Gemini 2.5 Pro(1Mトークンのコンテキスト長、$1.25/$10)

料金比較表(2026年2月時点)

料金単位はすべて1Mトークンあたりの米ドル。「入力」は入力トークン単価、「出力」は出力トークン単価。

モデル入力 ($/1M)出力 ($/1M)コンテキスト長備考
Claude Opus 4.6$15.00$75.00200K最高性能、複雑タスク向け
Claude Sonnet 4.6$3.00$15.00200Kコーディング・分析の主力
Claude Haiku 4.5$1.00$5.00200K軽量・高速、コスト重視
GPT-5.2~$10.00~$30.00128KOpenAI最上位、プレビュー段階
GPT-4o$2.50$10.00128Kマルチモーダル、バランス型
o4-mini$1.10$4.40128K推論特化、コスト効率高
Gemini 2.5 Pro$1.25$10.001M超長文コンテキスト、動画対応
Gemini 2.5 Flash$0.15$0.601M最安水準、スループット重視
DeepSeek V3.2$0.27$1.10128Kオープンソース系、中国発

出力トークンは入力の2〜5倍の単価が相場。実際の費用は「入出力比」によって大きく変わるため、自分のユースケースでの比率を把握してから選定すること。


各社の特徴

Anthropic(Claude)

Claude Opus 4.6は現時点でベンチマーク最高水準のモデルの1つだが、出力$75/1Mという料金は他モデルと比較して圧倒的に高い。企業の重要判断や法務・医療領域など、精度が最優先されるケースに絞るべき。

Claude Sonnet 4.6はコーディングエージェントの実務ユースケースで最も費用対効果が高い選択肢の1つ。200Kトークンのコンテキスト長により、大規模コードベースの横断参照にも対応できる。詳細な料金体系はClaude APIの料金ガイドを参照。

OpenAI(GPT)

GPT-4oはマルチモーダル(テキスト・画像・音声)対応で汎用性が高い。$2.50/$10という料金はClaude Sonnet 4.6と競合する水準で、既存のOpenAIエコシステムを使っている場合の乗り換えコストと天秤にかける必要がある。

o4-miniは推論タスク特化のモデルで、数学・コード・論理問題において上位モデルに匹敵する性能を低コストで発揮する。コンテキスト長128Kはやや制限になるが、タスクが明確なら有力候補。

GPT-5.2はプレビュー段階で料金が変動する可能性があり、現時点では採用を急ぐ必要はない。

Google(Gemini)

Gemini 2.5 Proの最大の強みはコンテキスト長1Mトークン。書籍1冊分のテキスト、長時間の動画字幕、大規模なコードリポジトリを一度のリクエストで処理できる。$1.25/$10という料金も競争力がある。

Gemini 2.5 Flashは入力$0.15という価格が際立つ。大量のドキュメント分類、ログ解析、テキストフィルタリングなど、スループット重視のバッチ処理では最初に検討すべき選択肢。

DeepSeek(V3.2)

DeepSeek V3.2は中国発のオープンソース系モデルで、$0.27/$1.10という価格設定は主要プロバイダーの中でもトップクラスのコスト効率。ただし、データ主権・セキュリティポリシーの観点から、機密情報を含むタスクへの利用は企業ごとのポリシー確認が必要。日本語対応の精度は向上しているが、ニュアンスを要する日本語コンテンツ生成ではまだ差がある場面もある。


コスパランキング(出力トークン基準)

出力トークンが費用の大半を占めるケースが多いため、出力単価で並べる。

  1. Gemini 2.5 Flash — $0.60/1M(最安)
  2. DeepSeek V3.2 — $1.10/1M
  3. o4-mini — $4.40/1M
  4. Claude Haiku 4.5 — $5.00/1M
  5. GPT-4o — $10.00/1M
  6. Gemini 2.5 Pro — $10.00/1M(コンテキスト長で差別化)
  7. Claude Sonnet 4.6 — $15.00/1M(コーディング品質で正当化)
  8. GPT-5.2 — ~$30.00/1M
  9. Claude Opus 4.6 — $75.00/1M

単純な出力単価だけで選ぶのは危険で、1回のリクエストで期待した結果が得られない場合のリトライコストも含めて評価する必要がある。安価なモデルで3回試行するより、高精度モデルで1回完結する方が安くなるケースは実務でよく発生する。


用途別おすすめ

バッチ処理・大量ドキュメント処理

Gemini 2.5 Flashが最有力。入力$0.15という単価は、100万トークン処理しても$0.15。ドキュメント分類、感情分析、キーワード抽出などの定型タスクで圧倒的なコスト優位を持つ。コンテキスト長1Mはバッチ処理で長文を一括投入する場合にも有利。

DeepSeek V3.2も選択肢で、特にコスト上限が厳しいプロジェクトや自前ホスティングを検討している場合に有効。

コーディング・複雑推論

Claude Sonnet 4.6が実績・信頼性ともに最もバランスが取れている。200Kコンテキストで大規模コードベースへの参照が効き、複数ファイルにまたがるリファクタリングや設計レビューに強い。モデルの性能比較については最新LLMランキングも参照してほしい。

数学的推論や競技プログラミング系のタスクならo4-miniがコスト効率で上回る場面がある。

汎用・長文コンテキスト

Gemini 2.5 Proが最適。1Mトークンのコンテキストを$1.25/$10で扱えるプロバイダーは現時点で他にない。長い会議録の要約、複数ドキュメントの横断比較、書籍規模のテキスト処理が必要なら迷わずこれを選ぶ。


無料枠・無料トライアル情報

プロバイダー無料枠
Anthropic (Claude)APIクレジットなし(新規登録時に一部試用クレジット付与あり)
OpenAI (GPT)新規登録時に$5相当のクレジット(有効期限あり)
Google (Gemini)Gemini 2.5 Flash:無料ティア(レート制限あり)、Gemini 2.5 Pro:無料ティア(低レート)
DeepSeekAPIクレジット(新規登録時に付与、金額は変動)

GoogleのGemini APIは無料ティアが比較的充実しており、Gemini 2.5 Flashは1分あたり一定リクエストまで無料で試せる。プロトタイプ段階や小規模な検証にはGemini APIから始めるのが費用リスクを抑えられる。

レート制限については各プロバイダーで大きく異なり、Tier制(利用額に応じて上限が上がる方式)が主流。本番運用前には自分のTierと制限値を必ず確認すること。


まとめ

2026年2月時点でのLLM API料金のポイントをまとめる。

  • 最安: Gemini 2.5 Flash($0.15/$0.60)、DeepSeek V3.2($0.27/$1.10)
  • コーディング最適: Claude Sonnet 4.6($3/$15、200Kコンテキスト)
  • 長文最強: Gemini 2.5 Pro($1.25/$10、1Mコンテキスト)
  • 最高性能: Claude Opus 4.6($15/$75、精度最優先タスク向け)

モデル選択の基本原則は「タスクに必要な最低品質を満たす最安モデルを選ぶ」こと。ただし、品質の低いモデルによるリトライコストと開発工数の増加も計算に入れること。実際のワークロードでA/Bテストを実施し、数値で判断するのが最も確実なアプローチ。

料金は各社のプロダクトロードマップや競争状況によって変動するため、定期的な見直しを推奨する。

わさびの見解

わさびです。この料金比較を見ると、Claude Sonnet 4.6の$3/$15がやはりコーディングとシステム構築の最適解だ。2025年12月からClaude Codeを使い始めて約3ヶ月、akahara-vlabの自動化パイプラインを構築した際、Sonnetを主力に据えた。RSS収集から記事生成、WP投稿、X拡散まで全自動で224記事以上吐き出し、APIコストは月数万円かかるが、手動作業の時間節約が10倍以上上回る。Opus 4.6の出力$75は確かに高いが、僕の場合は設計の最終判断だけに絞り、Sonnetで90%回すのが鉄板だ。

Gemini 2.5 Flashの最安値はバッチ処理向きだが、Claudeの200Kコンテキストで大規模コードベースを扱う安定感に勝てない。DeepSeekは安いが、安定運用でClaudeの信頼性を捨てられない。結局、API料金の差は「AIを単なるチャットツールとして使う人」と「システムに組み込んで加速させるエンジニア」の乖離を加速させる。僕のようにClaude API + WP-CLI + SSHのパイプラインを回せば、コストは投資として即回収だ。

自分のプロジェクト(cocoaAIやaiTuberPJ)でSonnet中心に切り替えてみて、月間トークン消費を最適化した結果、並行稼働数が倍増した。君のユースケースでSonnetを1週間試してみないか。差が出るはずだ。(412字)

あわせて読みたい

この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。

  • 天秤AI Biz byGMO
    Claude・ChatGPT・Geminiなど6つの生成AIを同時に使い比べ。業務活用に。
  • NordVPN
    AI活用時のデータ保護に。VPNで通信を暗号化。
{“@context”: “https://schema.org”, “@type”: “FAQPage”, “mainEntity”: [{“@type”: “Question”, “name”: “LLM API 最安モデルはどれ?”, “acceptedAnswer”: {“@type”: “Answer”, “text”: “Gemini 2.5 Flashが入力$0.15/1M、出力$0.60/1Mで最安水準で、バッチ処理・大量データに最適です。DeepSeek V3.2($0.27/$1.10)もコスト効率が高い選択肢です。”}}, {“@type”: “Question”, “name”: “コーディング向けおすすめLLMは?”, “acceptedAnswer”: {“@type”: “Answer”, “text”: “Claude Sonnet 4.6(入力$3/1M、出力$15/1M)が品質とコストのバランスが最良で、コーディング・複雑推論に主力モデルとして推奨されます。”}}, {“@type”: “Question”, “name”: “長文コンテキスト対応のLLM料金は?”, “acceptedAnswer”: {“@type”: “Answer”, “text”: “Gemini 2.5 Proが1Mトークンの超長文コンテキストに対応し、入力$1.25/1M、出力$10/1Mで汎用・長文用途に最適です。Claudeシリーズも200Kで対応可能です。”}}]}

コメント

タイトルとURLをコピーしました