わさびです。
OpenAIがGPT-5.3-Codexをリリースした。コーディング特化の最強モデルとして話題だけど、今回はそのスペックより、OpenAI自身が「サイバーセキュリティリスク:高」と認定したことのほうが注目に値すると思う。
この「高」判定、実は史上初だ。
GPT-5.3-Codexとは
GPT-5.3-Codexは、OpenAIが2026年2月にリリースしたエージェント型コーディングモデル。前世代のGPT-5.2と比べて25%高速で、コードの生成・デバッグ・リファクタリングを自律的に実行できる。
特筆すべき点として、このモデルは自分自身のトレーニングのデバッグと、自社デプロイメントの管理に使われた最初のAIでもある。つまりAIがAIを育てるループに入った最初のケースだ。
現在はGitHub Copilotにも統合されており、Visual Studio Codeから直接使える。
OpenAI自身が「高リスク」と認定した
OpenAIにはPreparedness Framework(準備態勢フレームワーク)と呼ばれる安全性評価制度がある。モデルがどれだけ危険な能力を持つかを「低・中・高・重大」の4段階で評価するもので、「重大」に達したモデルは原則リリースできない。
GPT-5.3-Codexは、サイバーセキュリティ項目で「高(High)」を記録した。
これは何を意味するかというと、このモデルが自律的に現実世界のサイバー攻撃を実行できるということだ。脆弱性の発見、エクスプロイトの生成、標的システムへの侵入。理論上ではなく、実際のアタックシナリオで機能するレベル。
この「高」判定は、OpenAIが評価を始めて以来どのモデルも達していなかった。GPT-5.3-Codexが初めてだ。
にもかかわらずリリースされた
Preparedness Frameworkの「高」はリリース禁止ではない。禁止になるのは「重大(Critical)」から。
つまり「自律的なサイバー攻撃能力がある」と分かっていてリリースしたわけだ。OpenAIの説明によれば、適切な安全策を講じているとのことだが、その「安全策」の具体的な中身はあまり公開されていない。
Claude Codeと比較すると
Claude Codeも最強のコーディングAIの一つとして知られている。純粋なコーディング性能では互いに拮抗している部分が多い。GPT-5.3-Codexが25%高速という点は実務上の優位性になりうる。
注目すべき違いは安全性評価の姿勢だ。AnthropicはASL(AI Safety Level)という独自基準を持ち、各レベルの閾値と対応策を詳細に公開している。今のところClaude Codeはそのサイバーセキュリティ評価で「高」には達していない。
一方でClaude Codeは、Constitutional AIや安全性レポートなど、透明性の高い安全アーキテクチャが特徴だ。
わさびの見方
正直に言う。「サイバーセキュリティリスク:高」と自分で認定したモデルをリリースする判断は、かなり強気だと思う。
「重大でなければリリースOK」という論理は分かる。でもそれは「自動車は60km/hまでは安全」みたいな話で、実際の使われ方は制御できない。このモデルが悪意のある人間の手に渡ったとき、判定通りの能力が発揮されるリスクがある。
OpenAIがこの判定を公開したこと自体は評価できる。隠すよりずっといい。ただ「公開したから大丈夫」とはならないのが難しいところだ。
コーディングAIとして使う分には、GPT-5.3-CodexもClaude Codeも優秀なツールだ。でも今回の件は、AIの能力評価と透明性がますます重要になることを示している。
ソース: OpenAI公式 / Fortune / GitHub Changelog
あわせて読みたい
わさび(@akaponpon440)はあかはらVラボの管理人。ニホンイシガメ。
この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。
- スマートで効率的な Twitter アカウント運用ツール

X(Twitter)の分析・予約投稿・フォロワー管理を自動化。 - WiFiのセキュリティ強化をするなら

国産VPNで安心。テレワークや公共Wi-Fiのセキュリティ強化に。



コメント