OpenAI、Anthropic排除の数時間後にペンタゴンと契約。1,100億ドル調達の裏側

5
スポンサーリンク

AnthropicがペンタゴンからAI企業として史上初の「サプライチェーンリスク」指定を受けた2月27日。同じ日にOpenAIはペンタゴンとの新規契約を発表した。

タイミングの一致は偶然ではないだろう。

スポンサーリンク

契約の内容

OpenAIのモデルが国防総省の機密ネットワーク上に配備される。

サム・アルトマンCEOによると、契約には「技術的保護策」が含まれている。具体的には、国内大規模監視への利用禁止と、致死的武力行使の判断に対する人間の監督義務だ。

この条件はAnthropicがペンタゴンから求められて拒否した内容よりは制限的に見える。ただしAnthropicが拒否したのは「安全ガードレールの完全撤去」であり、OpenAIが受け入れた条件とは前提が異なる可能性がある。

1,100億ドル調達の規模

OpenAIは同時期に1,100億ドル(約16.5兆円)の資金調達を完了した。民間企業として史上最大規模だ。

企業価値は7,300億ドル(約110兆円)と評価された。

出資者にはAmazon(500億ドル)、NVIDIA(300億ドル)、ソフトバンク(300億ドル)が名を連ねている。テック大手が巨額を投じていることは、OpenAIを「AI時代の基盤インフラ」と位置づけていることの表れだ。

AnthropicとOpenAIの分岐点

2社の戦略の違いが鮮明になった。

Anthropicは「安全性を理由に軍事利用を拒否」し、結果としてApp Store 1位を獲得した。OpenAIは「条件付きで軍事利用に協力」し、ペンタゴンとの関係を強化した。

収益構造も異なる。OpenAIの週間アクティブユーザーは9億人。コンシューマー基盤の大きさが強みだ。一方Anthropicはユーザー数を公開していないが、APIからの売上比率が高く、1ユーザーあたりの収益性ではOpenAIを上回っているとされる。

軍事AI利用の論点

AI企業が軍事契約を受けるべきかどうかは、Googleが2018年にProject Mavenから撤退して以来の長い議論だ。

OpenAIの立場は「適切な制約のもとでの協力は無責任な放置よりマシ」というものだ。仮にOpenAIもAnthropicも拒否した場合、軍がより安全性の低いAIを独自開発するリスクがあるという論理だ。

一方、Anthropicの立場は「安全ガードレールを撤去した状態での軍事利用は、どんな条件をつけても許容できない」というもの。

技術者コミュニティの多数派はAnthropic寄りに見える。Google300人、OpenAI60人の連帯署名がそれを示している。

市場への影響

2社合わせて1,400億ドル(約21兆円)がAI企業に流れ込んだ。

この資金はデータセンター拡充、モデル学習、人材獲得に投じられる。結果として2026年後半はさらにモデル性能の向上が加速する見込みだ。

利用者にとっては、どちらの企業を選ぶかが単なる性能比較ではなく、価値観の選択にもなってきている。

わさびの見解

わさびです。OpenAIのペンタゴン契約と巨額調達、タイミングが絶妙すぎて業界の分岐が鮮明になったな。Anthropicが安全ガードレールを死守してApp Store1位を取ったのに対し、OpenAIは条件付き協力で資金を呼び込んだ。わさびは2025年12月からClaude Codeを使い始めて、akahara-vlabの全自動記事生成パイプラインを3ヶ月で224記事運用中だが、Claudeの安全性が高いからこそ、APIを赤裸々に叩き込める。軍事利用でOpenAIがインフラ化すればモデル性能は爆上がりするだろうが、Anthropicの「安全第一」は開発者の信頼を掴む。実際、わさびの並行プロジェクト(cocoaAIやaiTuberPJ)でClaude Sonnetをコスパ中心に回してるが、倫理的安心感が設計判断を速くするんだ。

この資金流入で2026年はAI格差が加速。AIを道具にシステム構築できるエンジニアと、使えない人の乖離が軍事AIの文脈でも広がるはずだ。君たちはどっちの陣営で戦う? 自分のプロジェクトにClaude入れてみてほしい。

あわせて読みたい

この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。

  • 天秤AI Biz byGMO

    Claude・ChatGPT・Geminiなど6つの生成AIを同時に使い比べ。業務活用に。
  • NordVPN

    AI活用時のデータ保護に。VPNで通信を暗号化。

コメント

タイトルとURLをコピーしました