GPT-5.3-Codex|OpenAIが自ら「サイバーセキュリティリスク:高」と認定した最強コーディングAI

AI・自動化
スポンサーリンク

📋 セキュリティチェック指示書(クリックで展開)

.claude/commands/ に保存して /コマンド で実行

---
description: "GPT-5.3-Codex|OpenAIが自ら「サイバーセキュリティリスク:高」と認定した最強コーディングAI — セキュリティチェック"
---

# GPT-5.3-Codex|OpenAIが自ら「サイバーセキュリティリスク:高」と認定した最強コーディングAI

この指示書は https://akahara-vlab.com/gpt-53-codex-high-security-risk/ の内容に基づくセキュリティチェックリストです。

## 概要

OpenAIがリリースしたGPT-5.3-Codexは、自社の安全性評価で史上初の「サイバーセキュリティリスク:高」判定。自律的なサイバー攻撃能力を持つ最強コーディングAIの実態。

## 使い方

1. このテキストを `.claude/commands/security-gpt-53-codex-high-security-risk.md` に保存
2. Claude Codeで `/security-gpt-53-codex-high-security-risk` と入力して実行

## チェック指示

上記の記事で解説されているセキュリティ上の注意点をもとに、現在のプロジェクトを診断してください。
問題があれば具体的な修正案を提示してください。
記事URL: https://akahara-vlab.com/gpt-53-codex-high-security-risk/

※ 平文なので中身を確認してから使ってください。安全性は目視で確認できます。

わさびです。

OpenAIがGPT-5.3-Codexをリリースした。コーディング特化の最強モデルとして話題だけど、今回はそのスペックより、OpenAI自身が「サイバーセキュリティリスク:高」と認定したことのほうが注目に値すると思う。

この「高」判定、実は史上初だ。

スポンサーリンク

GPT-5.3-Codexとは

GPT-5.3-Codexは、OpenAIが2026年2月にリリースしたエージェント型コーディングモデル。前世代のGPT-5.2と比べて25%高速で、コードの生成・デバッグ・リファクタリングを自律的に実行できる。

特筆すべき点として、このモデルは自分自身のトレーニングのデバッグと、自社デプロイメントの管理に使われた最初のAIでもある。つまりAIがAIを育てるループに入った最初のケースだ。

現在はGitHub Copilotにも統合されており、Visual Studio Codeから直接使える。

OpenAI自身が「高リスク」と認定した

OpenAIにはPreparedness Framework(準備態勢フレームワーク)と呼ばれる安全性評価制度がある。モデルがどれだけ危険な能力を持つかを「低・中・高・重大」の4段階で評価するもので、「重大」に達したモデルは原則リリースできない。

GPT-5.3-Codexは、サイバーセキュリティ項目で「高(High)」を記録した。

これは何を意味するかというと、このモデルが自律的に現実世界のサイバー攻撃を実行できるということだ。脆弱性の発見、エクスプロイトの生成、標的システムへの侵入。理論上ではなく、実際のアタックシナリオで機能するレベル。

この「高」判定は、OpenAIが評価を始めて以来どのモデルも達していなかった。GPT-5.3-Codexが初めてだ。

にもかかわらずリリースされた

Preparedness Frameworkの「高」はリリース禁止ではない。禁止になるのは「重大(Critical)」から。

つまり「自律的なサイバー攻撃能力がある」と分かっていてリリースしたわけだ。OpenAIの説明によれば、適切な安全策を講じているとのことだが、その「安全策」の具体的な中身はあまり公開されていない。

Claude Codeと比較すると

Claude Codeも最強のコーディングAIの一つとして知られている。純粋なコーディング性能では互いに拮抗している部分が多い。GPT-5.3-Codexが25%高速という点は実務上の優位性になりうる。

注目すべき違いは安全性評価の姿勢だ。AnthropicはASL(AI Safety Level)という独自基準を持ち、各レベルの閾値と対応策を詳細に公開している。今のところClaude Codeはそのサイバーセキュリティ評価で「高」には達していない。

一方でClaude Codeは、Constitutional AIや安全性レポートなど、透明性の高い安全アーキテクチャが特徴だ。

わさびの見方

正直に言う。「サイバーセキュリティリスク:高」と自分で認定したモデルをリリースする判断は、かなり強気だと思う。

「重大でなければリリースOK」という論理は分かる。でもそれは「自動車は60km/hまでは安全」みたいな話で、実際の使われ方は制御できない。このモデルが悪意のある人間の手に渡ったとき、判定通りの能力が発揮されるリスクがある。

OpenAIがこの判定を公開したこと自体は評価できる。隠すよりずっといい。ただ「公開したから大丈夫」とはならないのが難しいところだ。

コーディングAIとして使う分には、GPT-5.3-CodexもClaude Codeも優秀なツールだ。でも今回の件は、AIの能力評価と透明性がますます重要になることを示している。


ソース: OpenAI公式 / Fortune / GitHub Changelog

Claude最新ニュースまとめ2026

あわせて読みたい


わさび(@akaponpon440)はあかはらVラボの管理人。ニホンイシガメ。

この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。

コメント

タイトルとURLをコピーしました