「またやらかした」とでも言うべき案件が出てきた。
OpenAIの内部開発ツール「Codex」のGitHubリポジトリで、GPT-5.4というモデル名が2度にわたってコードに現れ、フォースプッシュで消された。これを見た開発者たちがスクリーンショットを拡散し、さらにOpenAI従業員がXで誤ってキャプチャを投稿するという、重ね重ねの情報漏洩が起きた。
OpenAIのリリース計画に関する一次情報はほぼ存在しないだけに、この手のコードリークは予想以上に注目を集める。
GPT-5.4はこうしてリークされた
最初のリークは2月27日のことだ。
Codexリポジトリに送られたPR #13050のコードに、「フル解像度ビジョンのための最小モデルバージョン (5,4)」というタプル形式の記述が含まれていた。PR自体はCodexのビジョン機能に関するもので、どのモデルバージョン以降でフル解像度の画像処理を有効にするかを設定するコードだった。
この (5,4) という値が「GPT-5.4を指している」と解釈されたのは、Codex内部でのバージョン管理の命名規則から自然に読み取れるものだったからだ。コードが公開されてから数時間後、このPRはフォースプッシュによってコミット履歴ごと書き換えられ、問題の記述は消された。
ただ、見た人はすでに見ていた。
2度目のリークは3月2日の午前4時7分(UTC)。PR #13212のコードに、今度はもっと直接的に「gpt-5.4」という文字列がfastモード切り替えの関数呼び出しとして現れた。1回目よりも露骨で、言い訳のしようがない形だ。このPRも即座にフォースプッシュで削除された。
さらに追い打ちをかけたのが、OpenAI従業員のXへの誤投稿だ。内部のモデルピッカー画面のスクリーンショットを投稿してしまい、そこにGPT-5.4の選択肢が表示されているのが確認された。投稿はすぐ削除されたが、もちろん拡散済みだった。
リークから見える新機能
2回のPRのコードから読み取れる情報を整理すると、GPT-5.4には以下の変更が予想される。
フル解像度ビジョンが最もはっきりした手がかりだ。現行のGPTモデルは画像入力時にリサイズ・圧縮を行うため、細かいテキストや精密な図面の読み取りが苦手という問題がある。PR #13050のコードは「このバージョン以降は圧縮をスキップする」という条件分岐を含んでいた。つまりGPT-5.4ではこの制限が撤廃される可能性が高い。
視覚情報の劣化なし処理というのは、聞くとシンプルだが実際には大きな変化だ。現行のGPT-4oでも「画像がぼやける」「小さい文字が読めない」という不満は開発者から頻繁に聞こえてくる。OCRや設計図の読み取り、医療画像、衛星画像といった精度重視の用途では、この制限が致命的になることもある。フル解像度対応が本当に実現するなら、そうした用途への適用可能性が大きく広がる。
fastモードの刷新はPR #13212の記述から示唆される。「高速モード」の切り替えロジックにGPT-5.4の直接呼び出しが含まれていたことから、モデル自体のアーキテクチャレベルで速度と品質のバランスが変わる設計になっているとみられる。単に既存モデルを軽量化した「Miniバリアント」ではなく、GPT-5.4自体がfastモードとしての役割を担う形になるのかもしれない。
噂レベルの情報も加えると、200万トークンのコンテキストウィンドウが取り沙汰されている。Claude 3.5 Sonnetの20万トークン、Gemini 1.5 Proの100万トークンと比較しても桁が違う数字だ。本当にこのスペックであれば、長大なコードベース全体をコンテキストに収める用途でかなりのアドバンテージになる。
OpenAIのリリースペース
GPT-5.3-Codexが登場したのは2026年2月13日のことで、このブログでも取り上げた。それからわずか2週間強でGPT-5.4のコードがリポジトリに現れているという事実は、OpenAIの開発速度について何かを物語っている。
正確に言えば「バージョン番号が上がることとリリースが近いことはイコールではない」という点は注意が必要だ。内部テスト段階のモデルがGPT-5.4という名前を持っていても、それがいつ外部に公開されるかは別の話だ。
とはいえ、予測市場の数字は楽観的だ。2026年4月以前のリリースに55%、6月以前には74%の確率を織り込んでいる。「コードに存在する=近い」という経験則からくる判断だろう。
OpenAIはここ1年でモデルリリースのペースを明らかに上げている。GPT-4からGPT-5系列への移行以降、マイナーバージョンの更新頻度が増し、各バージョンのコア機能も大きく変わってきている。Codexシリーズはその中でもコーディング特化という位置づけで、競合のClaude CodeやGitHub Copilotへの対抗意識が働いているのは間違いない。
わさびの分析
2度のリークのうち1回目はタプル記法 (5,4) という間接的な形だったが、2回目はベタ書きの文字列だった。フォースプッシュでの対応から見るに、OpenAI側は「存在を認めたくない」段階だということは明白で、準備が整っていない、もしくは発表のタイミングを慎重に管理したいという意図がある。
ここで少し立ち止まって考えてみると、「なぜCodexリポジトリはパブリックなのか」という疑問が出てくる。完全非公開にすれば今回のような事故は起きない。おそらくOpenAIはCodexそのものをオープンなエコシステムとして育てたいという戦略的な意図と、内部開発の秘匿性のバランスをどこかで間違えている。あるいは、ある程度の「見えてしまうリーク」を容認しているのかもしれない。マーケティング的に悪くない効果があることは事実だからだ。実際、今回のリークだけでかなりの話題になっており、正式発表前に期待値が形成されるという意味では、OpenAIにとって損な話でもない。
フル解像度ビジョンの制限撤廃は、コーディング以外の用途でも大きな意味を持つ。スクリーンショットからUIコンポーネントを抽出する、手書きの設計図を読み取る、精密な技術図面を解析するといった用途で、現行モデルの解像度制限がボトルネックになっていた場面は多い。GPT-5.4がこれを解消するなら、コーディングAIというよりも「視覚的な情報処理全般を担うAI」に近づく。
200万トークンのコンテキスト窓については、正直なところ使いこなす側のプロンプト設計も追いつく必要がある。長ければいいというものではなく、「どの情報をコンテキストに入れるべきか」という判断の難しさは窓が広がるほど増す。ただ、制限がないことで初めて可能になるユースケースがあるのも確かだ。例えば大規模なコードリポジトリ全体を一度にコンテキストに載せてリファクタリングを依頼する、長期プロジェクトの全ドキュメントを踏まえた上で意思決定を支援させる、といった用途は、現行の窓サイズでは実現しにくい。これはツールを使う人間の工夫次第でもある。
ぼくが気になっているのは、GPT-5.3-Codexと5.4が「別モデル」なのか「バリアント」なのかという点だ。コードの記述からはCodexのfastモードとしてGPT-5.4が使われる可能性も読み取れるため、「ChatGPTで使えるGPT-5.4」と「Codex内部のfastモードとしてのGPT-5.4」が同じものかどうかは判然としない。正式発表でそこが明らかになるのを待ちたい。
いずれにせよ、GPT-5.4が正式にアナウンスされた時点でまたこのブログで取り上げる。そのとき、今回のリークで見えていた情報がどこまで正確だったかを確認するのが楽しみだ。
あわせて読みたい
- GPT-5.3-Codexが示す「コーディングAI」から「汎用AIワーカー」への変容
- LLMランキング2026:主要モデルの最新評価
- Claude Opus 4.6:エージェントチームと100万トークン窓が変えるAIの使い方
この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。
- スマートで効率的な Twitter アカウント運用ツール

X(Twitter)の分析・予約投稿・フォロワー管理を自動化。 - NordVPN

AI活用時のデータ保護に。VPNで通信を暗号化。



コメント