Claude CodeのSEOスキルでコンサル不要?——中身を全部読んだ結果

30
スポンサーリンク

📋 セキュリティチェック指示書(クリックで展開)

.claude/commands/ に保存して /コマンド で実行

---
description: "Claude CodeのSEOスキルでコンサル不要?——中身を全部読んだ結果 — セキュリティチェック"
---

# Claude CodeのSEOスキルでコンサル不要?——中身を全部読んだ結果

この指示書は https://akahara-vlab.com/claude-code-seo-skill-truth/ の内容に基づくセキュリティチェックリストです。

## 概要

XでバズっているClaude Code SEOスキル「seo-geo-claude-skills」の中身を全部読んだ。Markdownプロンプト集の実態、CORE-EEATフレームワークの完成度、API無しでできること・できないことを正直にレポートする。

## 使い方

1. このテキストを `.claude/commands/security-claude-code-seo-skill-truth.md` に保存
2. Claude Codeで `/security-claude-code-seo-skill-truth` と入力して実行

## チェック指示

上記の記事で解説されているセキュリティ上の注意点をもとに、現在のプロジェクトを診断してください。
問題があれば具体的な修正案を提示してください。
記事URL: https://akahara-vlab.com/claude-code-seo-skill-truth/

※ 平文なので中身を確認してから使ってください。安全性は目視で確認できます。


「Claude CodeのSEOスキルがSEOコンサルの仕事を奪う」——そんな投稿がXで流れた。

わさびも見た。正直、最初は「またAI万能論か」と思った。でも、実際にGitHubリポジトリの中身を全部読んでみると、話は単純ではなかった。コンサルを脅かす部分もあれば、明らかに誇張されている部分もある。

今回は、Xでバズっている「aaron-he-zhu/seo-geo-claude-skills」の中身を分解して、正直に評価する。


スポンサーリンク

Xでバズっている現象

2026年3月初旬、「Claude CodeにSEOスキルを入れたらコンサルいらなくなった」「20スキル全部入れたら本格的なSEO代理店のアウトプットが出てくる」という声が英語圏を中心に広まった。

npxコマンド一発でインストールできる手軽さ、スクリーンショットで映えるスコアリングレポート——見た目のインパクトが拡散を加速させた。

でも待て。「コンサル不要」は本当か? それを検証するために、わさびはリポジトリのMarkdownを全部読んだ。


実態:GitHubの中身を分解する

正体はMarkdownプロンプト集

まず結論から言う。このスキルセットの正体は、精巧に構造化されたMarkdownプロンプト集だ。

インストール方法は3つある。

# 推奨方法
npxskillsaddaaron-he-zhu/seo-geo-claude-skills

# あるいはGitクローン
gitclonehttps://github.com/aaron-he-zhu/seo-geo-claude-skills

インストールすると ~/.claude/skills/ 以下に20個のディレクトリが展開される。各ディレクトリの中身は SKILL.md という1ファイルだ。それだけだ。

Pythonスクリプトもなければ、バイナリもない。Claude Codeの起動時に読み込まれるシステムプロンプトの一部として機能する。言い換えると、これはClaudeに「SEOのプロとして振る舞え」と指示する詳細なプロンプト集だ。

API接続はゼロ——ただし「任意の接続口」は用意されている

CONNECTORS.md を読むと、こう書いてある。

“Every skill works without any tool integration (paste data manually)”

全スキル、外部API接続なしで動く。これは正確な記述だ。ただし「動く」の意味が重要で、データを手動で貼り付けてからでないと、実データに基づく分析はできない。

段階的な活用モードはこうなっている:

Tier構成できること
Tier 1統合なしユーザーが貼り付けたデータを分析
Tier 2基本接続Search ConsoleまたはAnalyticsと連携
Tier 3フル統合SEOツール+分析+クローラー+Search Console

「MCPサーバー経由でAhrefs, SimilarWebと接続できる」とREADMEには書いてある。ただしそれはオプション設定であり、デフォルトでは何も繋がっていない。

セキュリティ:インストール時のリスクは低い

昨日の記事(サードパーティスキルの安全性確認)でも触れたが、サードパーティスキルには注意が必要だ。

seo-geo-claude-skills について確認した限り:

  • postinstall/preinstallスクリプトは存在しない
  • バイナリや実行ファイルは含まれない
  • 外部URLへの自動接続は行わない
  • ライセンスはApache 2.0(オープンソース)

ただし、npxで配布されるスキルの場合、インストール前に必ずGitHubのソースを確認する習慣をつけること。npx skills add <作者名/リポジトリ名> の構造上、類似名のパッケージによるタイポスクワッティング攻撃のリスクはゼロではない。


使えるフレームワーク:CORE-EEATとCITE

Markdownの中身に話を戻す。プロンプト集とはいえ、フレームワークの質は本物だ。

CORE-EEAT Benchmark(80項目)

コンテンツ品質を8つの次元で評価する仕組みだ。

CORE(コンテンツ本体・40項目)
C — Contextual Clarity(文脈の明確性):検索意図との整合、FAQカバー率など
O — Organization(構成):スキーママークアップ、見出し構造など
R — Referenceability(参照可能性):引用密度、一次情報への参照など
E — Exclusivity(独自性):オリジナルデータ、独自の視点など

EEAT(信頼性・40項目)
Experience(経験):実体験の証拠、具体的な証跡
Expertise(専門知識):著者の資格・経歴表示
Authority(権威性):バックリンクプロフィール
Trust(信頼性):開示声明、情報の一貫性

採点方式はシンプルだ。各項目を Pass(10点)/ Partial(5点)/ Fail(0点)で評価し、最大800点満点(100点換算)のスコアを算出する。

「緊急停止フラグ」という概念が面白い。T04(開示声明)、C01(検索意図の合致)、R10(一貫性)がFailだと即座に優先対応を勧告する。

CITE Domain Rating(40項目)

ドメイン権威を4次元で評価する。

  • C — Citation:バックリンク量・質・多様性
  • I — Identity:Googleナレッジグラフへの登録、ブランドSERP制御
  • T — Trust:リンクの自然さ、ペナルティ履歴
  • E — Eminence:オーガニック可視性、話題権威性

こちらにも「拒否権項目(Veto)」があり、T03・T05・T09が該当するとスコアが39/100に上限設定される。

このフレームワーク自体はSEOの教科書的な視点が整理されており、チェックリストとして使う価値がある。


限界:API無しではリアルデータが取れない

ここが重要な話だ。フレームワークは優秀でも、実データがなければ「Claudeの推測」を採点しているにすぎない。

キーワードリサーチの現実

keyword-research/SKILL.md を読むと、API無しの場合の挙動がこう書かれている。

“Ask the user to provide: seed keywords, target audience, business goals, current domain authority, any known keyword performance data or search volume estimates”

つまり、キーワードのボリュームや難易度はユーザーが自分で持ってきて貼り付ける必要がある。

スキルは貼り付けられたデータを使って Opportunity = (Volume × Intent Value) / Difficulty という数式で優先順位を算出する。計算ロジック自体は理にかなっているが、インプットがユーザーの提供データに依存している以上、精度もユーザーの入力精度に依存する。

ランク追跡の現実

rank-tracker/SKILL.md を確認すると、API無しで必要な手動提供データはこれだ:

  1. キーワードランキング(現在値と履歴)
  2. ターゲットキーワード+検索ボリューム
  3. 競合ドメイン+ランキング情報
  4. SERPフィーチャーステータス
  5. AI Overview引用データ

毎日このデータを手動で貼り付けてランク追跡をするなら、それはスキルの活用ではなく手作業だ。

技術SEOチェックの現実

technical-seo-checker/SKILL.md は正直だ。API無しでできることとできないことを明記している。

できること: robots.txt構文検証、サイトマップ検証、URLパターン評価、構造化データレビュー(ユーザーがHTMLを貼り付けた場合)

できないこと: 実際のページクロール、本物のCore Web Vitals計測、リアルタイムサイトスピード測定、404/500エラーの自動検出、インデックスカバレッジの自動確認

Core Web Vitals(LCP・FID・CLS・INP)はPageSpeed Insightsのスクリーンショットを貼り付けてから分析する形だ。実測値ではなく、ユーザーが持ってきた測定結果をClaudeが読み取る構造だ。


強化案:API接続で本物のツールになる

では、このスキルセットを「本物」にするにはどうすればいいか。

Google Search Console API

公式のPythonクライアントとMCPサーバーを経由すれば、キーワードの表示回数・クリック数・平均順位をリアルタイムで取得できる。ランク追跡スキルに直結するデータだ。

# Google Search Console APIの接続例(MCP経由)
# sites/akahara-vlab/credentials/gsc_service_account.json を使用

PageSpeed Insights API

Core Web Vitals をリアルタイムで計測できる無料APIだ。キーが不要なエンドポイントもある。技術SEOチェッカーとの組み合わせで、「ユーザーがスクショを貼る」作業をゼロにできる。

https://www.googleapis.com/pagespeedonline/v5/runPagespeed?url=<対象URL>&strategy=mobile

Ahrefs / SEMrush MCP

CONNECTORS.md でも言及されている接続口だ。バックリンク分析とCITEスコアリングを自動化できる。ただし有料プランが必要になる。無料でやるなら Google Search Console + 手動データが現実的な選択だ。

わさびが試している組み合わせ

あかはらVラボでは Google Search Console API をすでに実装済みだ(scripts/google_indexing.py)。このスキルセットとSearch Console APIを組み合わせれば、少なくともキーワードパフォーマンスの部分はリアルデータに基づく分析ができる。


セキュリティ:サードパーティスキルを使う前の確認

昨日の記事(Claude Codeサードパーティスキルの安全性)でも詳しく書いたが、改めて確認ポイントをまとめる。

インストール前に確認すること:

  1. GitHubのソースを必ず確認 — npxでインストールする前にリポジトリのファイル構成を見る
  2. postinstall/preinstallスクリプトの有無package.json があれば scripts フィールドを確認
  3. 外部URLへのアクセス — スキルファイルにcurlやfetchが含まれていないか
  4. 作者の信頼性 — リポジトリの歴史、スター数、コントリビュータを確認

seo-geo-claude-skills はMarkdownファイルのみで構成されており、悪意のあるコードが混入するリスクは構造上低い。しかし「SEO系スキル」を名乗るタイポスクワッティングパッケージが出てくる可能性は否定できない。npx skills add の前には必ずGitHubのURLで確認する習慣をつけること。


わさびの結論

「Claude CodeのSEOスキルでコンサル不要」は誇張だ。ただし「役に立たない」というのも違う。正確に言うとこうだ:

プロンプト集としては優秀、でもそのままではコンサルの代替にならない。

80項目のCORE-EEATフレームワーク、40項目のCITEスコアリング——これは実際のSEO監査で使えるチェックリストとして機能する。Claudeに「このコンテンツを評価してくれ」と頼むとき、ここまで構造化されたフレームワークが自動適用されるのは確かに価値がある。

限界は実データだ。キーワードボリュームはSEMrushかSearch ConsoleなしにはLLMの推測にすぎない。バックリンク数はAhrefsなしには数えられない。Core Web Vitalsは実際にPageSpeed Insightsを叩かないと測定できない。

API接続とカスタマイズで初めて本物になる。 Google Search Console APIを繋いで、PageSpeed Insights APIを繋いで、それから「Claudeのプロンプト品質でコンサルに近づける」という順番だ。

その意味でこのスキルセットは「出発点」として優秀だ。ゼロからプロンプトを書くよりも、このフレームワークをベースにカスタマイズする方が効率的だ。

SEOコンサルの仕事がAIに奪われる日は来るかもしれない。でも今日ではない。今日は「優秀なプロンプト集が公開された日」だ。


あわせて読みたい


FAQ

Q. seo-geo-claude-skills はGoogle Search ConsoleやAhrefsに自動接続しますか?
A. デフォルトでは接続しません。全スキルはAPI接続なしで動作しますが、その場合はユーザーが手動でデータを貼り付ける必要があります。MCPサーバーを設定すれば自動接続も可能です。

Q. CORE-EEATのスコアは実際のGoogle評価に対応していますか?
A. GoogleのEEAT評価と名称が似ていますが、このフレームワークはGoogleの公式アルゴリズムではありません。SEO業界のベストプラクティスを80項目に整理したチェックリストです。Googleの実際の評価は外部から参照できません。

Q. npxでインストールするのは安全ですか?
A. aaron-he-zhu/seo-geo-claude-skills 本体はMarkdownファイルのみで構成されており、悪意のある実行コードは含まれていません。ただし類似名のパッケージによるタイポスクワッティングには注意が必要です。インストール前に必ずGitHubのURLでソースを確認してください。


この記事が参考になったら|以下のリンクから見てもらえるだけで、ブログ運営の応援になります。




  • AIスキルを活かして副業を始めるなら。無料登録はこちら。



  • AI開発環境やブログ運営に。初期費用無料、月額296円から。

コメント

タイトルとURLをコピーしました