AIの世界って、週一ペースでとんでもないニュースが飛び込んでくるよね。今週もやってくれたよ。「#CancelChatGPT」っていうボイコット運動が一気に燃え上がって、その余波でClaudeまで障害を起こすという、なんというか……AIニュース的には最高にドラマチックな展開になったんだ。
ぶっちゃけ、こんなに短期間にこれだけのことが起きるとは思ってなかったよ。順番に整理していくね。
#CancelChatGPT運動とは
発端はOpenAIがアメリカ国防総省(ペンタゴン)と契約を結んだこと。以前のOpenAIの利用規約には「武器・軍事用途への使用禁止」という条項があったんだけど、それをこっそり削除して軍と契約した、っていうのが判明したんだ。
これがX(旧Twitter)で一気に拡散して、「#CancelChatGPT」「#QuitGPT」というハッシュタグがトレンド入り。単なるネットの炎上で終わらなかったのが今回の特徴で、quitgpt.orgというサイトが立ち上がり、150万人以上がアクション——解約・署名・ボイコット宣言——を表明したんだ。
ボイコット参加者が声明として掲げていた主な理由はこんな感じ:
- ChatGPTの課金を解約してOpenAIへの資金提供をやめる
- 軍事・監視目的へのAI活用に反対する
- 「安全なAI開発」を掲げていた当初の方針との矛盾を問う
- より倫理的なAI企業への乗り換えを促す
「利用規約を変えてまで軍と組んだ」という事実が、もともとOpenAIに期待していたユーザーほどショックを受けた、ってことだよね。信頼を裏切られた感覚、わかる気がするよ。
Claude、需要殺到で世界規模障害
ボイコット参加者が「じゃあどこ行くの?」となったとき、真っ先に名前が挙がったのがAnthropicのClaude。その結果、ClaudeはアメリカのApp Storeで1位を獲得したんだ(詳しくはこちらの記事も読んでみてね)。
で、ここからが面白いというか、笑えないというか……。
3月2日、Claudeが世界規模の障害を起こした。
Downdetectorには約2,000件の障害報告が集まり、ピークはニューヨーク時間の朝6:40頃。ちょうど朝の業務開始時間に世界中のユーザーが「Claudeを使おう」と一斉にアクセスした結果、こうなったわけ。
ただ、技術的に興味深いのは障害の範囲だよ。
| 影響を受けたサービス | 状況 |
|---|---|
| Claude.ai(Web版) | ほぼ停止 |
| モバイルアプリ | 不安定 |
| コアAPI(企業向け) | 動作継続 |
そう、企業がシステムに組み込んで使っているAPIはちゃんと動いてたんだよね。Webの一般ユーザー向けのフロントエンド部分に負荷が集中した、という感じ。
AnthropicはこれについてX(旧Twitter)などで「前例のない需要(unprecedented demand)」と説明している。ぶっちゃけ、これは言い訳でもなんでもなくて事実だと思う。ここまで急激にユーザーが殺到するのは、誰も予測できなかっただろうし。
Anthropicの安全ポリシー
じゃあなんでClaude・Anthropicが「代替先」として選ばれたのか、というところも触れておきたい。
AnthropicのCEO、ダリオ・アモデイは明確な立場を表明している。Anthropicは以下については現時点で協力しないと公言しているんだ:
- 国民の大規模監視システムへの活用
- 自律型兵器(人間の判断なしに攻撃を実行するもの)への組み込み
- ハイリスクな自動判断(生死に関わるような意思決定の自動化)
この姿勢が「OpenAIと違う」として評価されて、ボイコット参加者の受け皿になったわけだよね。もちろんAnthropicも完全に軍・政府と無縁ではないし、今後どうなるかはわからない。でも少なくとも今、明確なラインを引いているのは事実。
ちなみに、AnthropicとペンタゴンをめぐるAI倫理の動向についてはこちらの記事でも詳しく取り上げているよ。
OpenAIの釈明
当然、OpenAI側も黙っていたわけじゃない。
「大規模な国民監視システムや自律型兵器には使わない」という趣旨の声明を出して鎮火を図ったんだけど……正直、反発は収まらなかった。
理由は明快で:
– 利用規約を変えてから軍と契約したという”やってしまった後”の釈明である
– 「使わない」という約束に法的・制度的な担保がない
– そもそも利用規約を静かに変えていたこと自体への不信感が根強い
ぶっちゃけ、「信頼は一度壊れると取り戻すのが大変」ってやつだよね。釈明の内容が正しくても、タイミングと順序が完全に裏目に出てる。
OpenAIのペンタゴン契約の経緯についてはこちらの記事でも整理してるので、興味があればどうぞ。
わさびの感想
亀として草を食べながら眺めていて思うんだけど、これって「AIサービスはインフラ化してる」ってことのリアルな証拠だよね。
150万人がボイコットを表明して一斉に別のサービスに移ったら、そのサービスが落ちる。電力会社とか水道みたいな話になってきてる。「使えなくなると困る」サービスになったってこと。
あと、今回の件でひとつ感じたのは、AIを開発する会社の倫理的スタンスが、ユーザーの選択基準になってきたということ。「スペックが高い」「使いやすい」だけじゃなくて、「どういう思想で作られているか」を気にする人が確実に増えてる。
わさびとしては、引き続き両方のサービスの動向を追っていくつもり。どっちが”正しい”かを決めるのはむずかしいけど、少なくとも「何が起きているかを知る」ことは大事だと思うから。
あわせて読みたい
- Claudeがペンタゴン問題でApp Store 1位に — 需要殺到の経緯
- OpenAIのペンタゴン契約とAnthropicの対応 — 契約の詳細
- AnthropicとペンタゴンをめぐるAI倫理 — 安全ポリシーの背景
参考情報: Euronews, Windows Central, BleepingComputer, Bloomberg, PYMNTS
この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。
- NordVPN

AI活用時のデータ保護に。VPNで通信を暗号化。 
AI開発環境やブログ運営に。初期費用無料、月額296円から。



コメント