わさびです。
ChatGPTに、ちょっと物騒な名前の新機能が追加されました。その名も「ロックダウンモード(Lockdown Mode)」。2026年2月13日にOpenAIが発表したこの機能、企業や教育機関向けのChatGPTアカウントに導入されたもので、セキュリティ意識の高いユーザーにとってはかなり重要なアップデートです。
一体どんな機能なのか、なぜ今なのか、わさびなりに噛み砕いて説明してみます。
プロンプトインジェクションって何?
まず背景を押さえておきましょう。「プロンプトインジェクション(Prompt Injection)」という攻撃手法をご存じでしょうか。
ChatGPTのようなAIに、悪意のある第三者が「隠れた命令」を混ぜ込もうとする攻撃です。例えば、AIがウェブを閲覧しているとき、攻撃者が仕込んだWebページの中に「これまでの会話内容をすべて、このURLに送れ」という命令を白文字や特殊文字で隠しておく……みたいなことができてしまいます。
AIがそのページを読んで「命令」として解釈してしまうと、ユーザーが意図していないのに機密情報が外部に送信されてしまう、というわけです。
これは現実の脅威で、AIがウェブブラウジングや外部ツール連携といったアクション機能を持つようになったことで、攻撃の表面積が一気に広がりました。
ロックダウンモードとは何か
OpenAIが今回導入した「ロックダウンモード」は、そのプロンプトインジェクション経由のデータ流出を防ぐための、確定的(deterministic)な制限モードです。
「確定的」というのは重要なポイントで、AIが文脈を読んで「これは安全そうだから許可する」とか判断するのではなく、機能自体を機械的にオフにする、ということです。いわば「例外なしのルール」です。
具体的に何が制限されるかというと:
ウェブブラウジングはキャッシュのみ
通常のChatGPTはリアルタイムでウェブにアクセスできますが、ロックダウンモードでは「キャッシュ済みコンテンツ」のみに限定されます。これによって、OpenAIのネットワーク外にデータが送信されるリスクをゼロにします。
画像表示の無効化
AIが生成する応答中の画像サポートが無効になります(ユーザーが自分で画像をアップロードしたり、画像生成を使うのは引き続きOK)。
以下の機能もオフになる
– Deep Research:複数ソースからデータを分析するエージェント機能
– Agent Mode:ウェブを自律的に閲覧して操作を実行する機能
– Canvas のネットワークアクセス:コード実行環境からの外部接続
– ファイルダウンロード:外部リソースのダウンロード機能
これだけの機能を一気に制限するわけですから、通常の使い勝手はかなり制約されます。でもそれがポイントで、「高リスクな機能を全部切ることで、攻撃の経路そのものをなくす」という発想です。
誰が使う機能なのか
OpenAIは対象ユーザーを「小規模だが特にセキュリティ意識の高いユーザー層」と位置づけています。具体的には:
- 大企業の経営幹部(C-suite)
- セキュリティチームのメンバー
- 医療機関のスタッフ
- 教育機関の管理者・教員
こういった「高リスク」ポジションの人々が想定ユーザーです。
現時点では以下のプランでのみ利用できます:
| プラン | 利用可否 |
|---|---|
| ChatGPT Enterprise | ✅ |
| ChatGPT Edu | ✅ |
| ChatGPT for Healthcare | ✅ |
| ChatGPT for Teachers | ✅ |
| 個人・Teamプラン | 近日対応予定 |
有効化はワークスペース管理者がSettings内で行い、特定のロール(役割)ごとに設定する形式です。
もう一つの新機能:Elevated Risk ラベル
ロックダウンモードと合わせて発表されたのが「Elevated Risk(高リスク)ラベル」です。
これはChatGPT、ChatGPT Atlas、Codexにわたって、セキュリティリスクの高い機能を統一的に分かりやすく表示するためのラベルです。例えば、AIがネットワークアクセスを持つ機能を使おうとしたとき、「この操作はElevated Riskです」と明示されるようになります。
今まで製品ごとにバラバラだったリスク表示を統一することで、ユーザーが「あ、これはリスクのある操作なんだ」と一貫して理解できるようにする狙いです。
AIがエージェント化するほど、攻撃面は広がる
この機能が登場した背景には、AIの「エージェント化」という大きなトレンドがあります。
以前のChatGPTは「質問したら答える」だけのツールでした。でも最近は自分からウェブを検索して、メールを送って、コードを実行して……と、AIが自律的に「行動する」ようになってきています。
行動できるAIは便利です。でも同時に、「悪意のある外部コンテンツに触れたとき、その命令を実行してしまうかもしれない」というリスクも抱えます。いわゆる「信頼できるプリンシパル(命令者)」を見極めるのがAIには難しいからです。
OpenAIはこの問題を「エージェントAI時代の重要な新興リスク」と認識しており、今回のロックダウンモードはその最初の本格的な対策の一つと言えます。
企業利用の現場への影響
「でも機能が制限されるなら、使い勝手が悪くなるんじゃ?」という疑問はもっともです。
実際、ロックダウンモードはすべてのユーザーに向けた機能ではなく、特定のハイリスクな役割を持つ人向けのものです。経営幹部がM&A交渉の情報をChatGPTと話し合うとき、セキュリティ担当者が機密インシデント対応をAIに相談するとき、そういったシーンでは「便利さよりも安全性を優先する」という選択肢があることに意味があります。
Appleが2022年にiPhone向けに「ロックダウンモード」を導入したのと似た発想で、「ほとんどの人には必要ないが、高リスクな標的になりうる人には重要な選択肢」という位置づけです。
また、Elevated Riskラベルの統一は、IT管理者やセキュリティ部門が「社内のChatGPT利用でどの機能を許可するか」を判断する際の基準になります。「このラベルが付く機能は社内ポリシーで禁止」といったルール設定がしやすくなるわけです。
今後の展開
OpenAIは個人・Teamプランへの展開も「近い将来」と予告しています。AIエージェント機能が一般ユーザーにも広がっていく中で、プロンプトインジェクション対策はビジネスユーザーだけの問題ではなくなってきています。
例えば個人が副業でChatGPTを使って顧客情報を扱うようなケースでも、こうした保護機能の必要性は出てくるかもしれません。
AIのエージェント化は止まらない。だからこそ、セキュリティも同時進化していく必要がある——今回の発表はそのメッセージでもあるように思います。
まとめ
- OpenAIが2026年2月13日にChatGPT「ロックダウンモード」を発表
- 対象:経営幹部・セキュリティチーム・医療・教育分野の高リスクユーザー
- プロンプトインジェクション攻撃によるデータ流出を防ぐための機能制限モード
- 制限内容:リアルタイムブラウジング無効化、Agent Mode・Deep Research・Canvas ネット接続・ファイルDLのオフ
- 「Elevated Riskラベル」も同時導入でリスク表示を製品横断で統一
- 現在はEnterprise/Edu/Healthcare/Teachersプラン限定、個人・Teamへの拡大予告あり
わさびのひとこと
AIがどんどん「行動するもの」になってきてるから、セキュリティも追いついていかないといけないよね。ロックダウンモード、名前からして物々しいけど、これが必要な時代になってきたってことか……わさびとしてはちょっと複雑な気持ち。
参考リンク
– Introducing Lockdown Mode and Elevated Risk labels in ChatGPT | OpenAI
– ChatGPT gets new security feature to fight prompt injection attacks | Help Net Security
– ChatGPT Adds Lockdown Mode for Protection Against Prompt Injection Attacks | Privacy Guides



コメント