GEO / AI検索

GEO完全ガイド | AI検索に引用されるための実装と運用

GEO(Generative Engine Optimization)の優先順位を、AIクローラー許可、構造化データ、Answer-First、鮮度、E-E-A-T、コミュニティ言及まで実装目線で整理します。

Kiroku編集部公開日: 2026年4月5日最終更新: 2026年4月5日約12分
527%
AI経由セッションの前年比増

Previsible / Search Engine Land が 19 の GA4 プロパティを分析

4.4x
AI検索訪問者の相対価値

Semrush が traditional organic 比で報告

35.2%
直近3か月で更新された AI 引用ページ

AirOps による ChatGPT citation の分析

5.5%
Google AI Overviews における Reddit の出現シェア

Ahrefs Brand Radar の公開分析

Kiroku編集部

この記事は一般的な実装・運用ガイドです。AI検索の表示や引用は外部サービスの仕様変更の影響を受けるため、継続的な観測と更新が前提になります。

先に結論
  • 最優先は AI クローラーが重要ページに到達できること。robots.txt と llms.txt を整備する
  • 構造化データは Article、FAQPage、HowTo、BreadcrumbList を中心に実装する
  • 各 H2 の直下には 40〜60 語程度の直接回答ブロックを置き、AI が拾いやすい形にする
  • 独自データ、更新日、著者情報、出典、コミュニティ言及を一緒に育てると AI 可視性が安定しやすい

GEOで最優先なのは、AIクローラーがページに到達でき、AIがその内容を理解し、引用しやすい形で公開されていることです。robots.txt、llms.txt、JSON-LD、見出し直下の直接回答、定量データ、更新日、著者情報、参考資料、オフサイト言及を一体で整えると、AI検索での可視性を継続的に伸ばしやすくなります。

AI検索は、従来の青いリンクだけではなく、要約、引用、ブランド名の言及を通じてページを見つける世界に変わりつつあります。順位だけを追っていると、実際にはAIが回答を作る段階で自社が候補から外れている、ということが起こります。

そのためGEOでは、検索順位対策だけでなく、AIクローラーの到達性、構造化された意味づけ、回答の明確さ、一次情報の量、更新頻度、著者と出典の信頼性、そしてオフサイトの言及まで、引用される前提を設計する必要があります。

1

なぜ今GEOが重要なのか

先に答え

GEOが重要なのは、AI検索がすでに実トラフィックを動かしており、従来の順位だけではブランドが見えなくなり始めているからです。今後は『検索で何位か』だけでなく、『AIの回答に誰が引用されるか』も同じくらい重要になります。

Search Engine Land が紹介した 2025 Previsible AI Traffic Report では、19 の GA4 プロパティで LLM 由来セッションが前年比 527% 増でした。Semrush も、AI検索訪問者は従来のオーガニック訪問者より相対価値が 4.4 倍高いとまとめています。

一方で、Google の AI Overviews や ChatGPT、Perplexity のような回答型 UI は、クリック前に『どのページを信頼して組み合わせるか』を選びます。つまり、GEO の目的は単に流入を増やすことではなく、引用候補として選ばれる条件を整えることです。

  • AI検索は実際の発見チャネルになり始めている
  • クリック前の引用フェーズで負けると、従来検索の順位以前に見えなくなる
  • トラフィック量だけでなく、AI引用でのブランド可視性を追う必要がある
2

AIクローラーに正しく到達させる

先に答え

AIに引用される前提を作るには、まず AI クローラーが公開ページに到達できる状態にすることが最優先です。重要なガイドや機能ページが robots.txt や noindex で誤って塞がれていると、他の施策を積んでも効果が出ません。

少なくとも、一般公開したいガイド、機能説明、価格、FAQ、比較記事、URL一覧ページは AI クローラーが取得できるようにしておきます。逆に、API、認証後ページ、管理画面などは引き続き閉じたままで問題ありません。

加えて llms.txt を置いておくと、製品の要点、使いどころ、制限事項、重要URLを AI システムへ明示的に伝えやすくなります。robots.txt と llms.txt は役割が違うので、両方整えておく方が安定します。

  • 公開したいページだけを AI クローラーに開ける
  • API、auth、dashboard などは引き続き閉じる
  • llms.txt で製品・用途・重要ページを明文化する
robots.txt の基本例
User-agent: GPTBot
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard

User-agent: ChatGPT-User
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard

User-agent: OAI-SearchBot
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard

User-agent: PerplexityBot
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard

User-agent: ClaudeBot
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard

User-agent: Google-Extended
Allow: /
Disallow: /api/
Disallow: /auth/
Disallow: /dashboard
3

構造化データで意味を明示する

先に答え

AIはページの意味を推測でも読めますが、構造化データがあると『これは記事か』『FAQか』『手順か』『どの組織の情報か』を速く正確に解釈できます。特に Article、FAQPage、HowTo、BreadcrumbList は GEO の土台になります。

構造化データは、本文の内容を AI に押しつける魔法の仕組みではありません。ただし、ページ種別、見出し構造、著者、公開日、更新日、FAQ、手順を機械可読にすることで、引用対象としての解像度が上がります。

特に FAQ や手順を本文中に持っているなら、UI だけで終わらせず JSON-LD にも反映しておくべきです。ページにあるのに schema がない状態は、AI と検索エンジンにとって『意味づけが半分しか伝わっていない』状態です。

  • Article: タイトル、説明、公開日、更新日、著者、出典
  • FAQPage: 質問と直接回答
  • HowTo: 手順、順序、補足説明
  • BreadcrumbList: 親子関係とサイト内文脈
FAQPage の JSON-LD 例
{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [
    {
      "@type": "Question",
      "name": "事故物件の調べ方は?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "事故物件は不動産取引時の告知義務や過去の募集履歴、近隣の報道記録を組み合わせて確認します。"
      }
    }
  ]
}
4

Answer-First で見出し直下に結論を書く

先に答え

AIに引用されやすくするには、各 H2 の直下に短い直接回答を置くのが効果的です。見出しの意味を読んだ直後に、1〜2文で結論がある構造だと、AI がそのまま引用候補として拾いやすくなります。

多くのページは前置きが長く、答えが 3 段落目や表の下に埋もれています。人間には読めても、AI から見ると『結局この見出しへの答えは何か』を抽出しにくくなります。

おすすめは 40〜60 語程度の短い回答ブロックを見出し直下に置き、そのあとで背景、比較、例外、手順、表を続ける構成です。本文の先頭に summary を置くだけでなく、各セクション単位で答えを先出しにするのがポイントです。

構成
悪い例背景説明を3段落続けてから、最後に結論を書く
良い例H2直下に1〜2文の直接回答を書き、その後に背景・根拠・例外・手順を続ける

今すぐページを保存して試してみましょう

各H2ごとに『短い答え → 詳説』の順にする

ページ全体の冒頭要約だけでは足りません。各セクションでも同じ構造を繰り返すと、AI が引用しやすくなります。

5

独自データと定量情報を入れる

先に答え

AI が引用しやすいのは、他サイトを言い換えただけの説明より、一次データや固有の数字を含むページです。自社DB、観測値、比較表、件数、比率、期間を入れるだけで引用価値が大きく上がります。

『多い』『少ない』『古い』『安い』のような抽象表現だけでは、AI は独自性を判断しにくくなります。何を何件見たのか、どの期間を集計したのか、比較対象は何かをページ内で明示すると、引用の理由が生まれます。

Kiroku や negasearch.com のように、公開URLの保存履歴や募集履歴を持つサービスは、自社でしか出せない統計を作りやすい立場にあります。300語前後のセクションなら 2〜3 個の定量データがあると、AI にとって使いやすい説明になります。

  • 『多い』ではなく『34社中28社(82%)』と書く
  • 『安い』ではなく『平均掲載価格より23.5%低い』と書く
  • 集計期間、対象件数、比較軸を本文で明示する
6

鮮度を保ち、更新日を見せる

先に答え

AI 検索では、公開日よりも『最近メンテナンスされているか』が重要です。更新日を visible にし、dateModified を schema と sitemap に反映し、古いページを計画的に見直す必要があります。

AirOps の分析では、ChatGPT に引用されたページの 35.2% が直近 3 か月以内、53.4% が直近 6 か月以内に更新されていました。特に商用意図に近いページほど、最近更新されているコンテンツが選ばれやすい傾向があります。

重要なのは『新規公開を増やすこと』より『既存ページを更新し続けること』です。更新日はページ内にも表示し、schema の dateModified と sitemap の lastModified も必ず一致させます。

簡単4ステップ
1
重要URLを3段階に分ける

商用ページ、比較記事、FAQ のように引用価値が高いページから優先順位をつけます。

2
更新トリガーを決める

仕様変更、新機能追加、規約変更、参考資料の差し替えがあったら本文と更新日を見直します。

3
visible な更新日を出す

見出し直下や記事メタに公開日と更新日を表示し、読者にも AI にも鮮度を伝えます。

4
schema と sitemap を同期する

dateModified と lastModified を同時に更新し、クロールと再評価を促します。

7

E-E-A-T シグナルを強くする

先に答え

AI が引用しやすいのは、誰が書いたか、何を根拠にしているか、どこまで確かな情報かが明示されたページです。著者情報、編集方針、参考資料、製品実測、注意書きを揃えると信頼シグナルが強くなります。

著者名だけでは弱く、専門領域、調査方法、どの情報源を優先するかまで見せた方が強いページになります。特に証拠保全、法務、価格比較のようなセンシティブなテーマでは、出典と前提条件を消さないことが重要です。

また、プロダクトの説明は『実際に保存テストしたのか』『コード上の仕様確認なのか』を意識して書くと、内容に厚みが出ます。AI にとっても人にとっても、出典がある説明の方が引用しやすくなります。

  • 著者プロフィールと専門領域を表示する
  • 参考資料セクションに一次情報を並べる
  • 一般論と法的助言を明確に分ける
  • 更新方針と検証方法を About ページで公開する
8

Reddit・YouTube・コミュニティ言及を育てる

先に答え

GEOは自サイト内だけでは完結しません。AI Overviews では Reddit や YouTube のようなコミュニティ・UGC ドメインが頻繁に参照されるため、ブランド名や製品名が自然に語られる場を増やす必要があります。

Ahrefs の公開分析では、Google AI Overviews における Reddit の出現シェアは 5.5% まで伸びており、YouTube も引用されるドメインの上位に入っています。つまり AI は『公式サイトが何と言うか』だけでなく、『コミュニティでどう語られているか』も強く参照しています。

ここで重要なのは、不自然なリンク施策ではなく、比較される文脈やレビューされる文脈を増やすことです。FAQ、比較記事、使い方動画、公開テンプレート、ケーススタディを外部でも共有し、ブランド名の言及を増やしていきます。

  • Reddit や YouTube で自然に参照されやすいトピックを先に用意する
  • 比較記事、テンプレート、実例を公開して言及しやすくする
  • 『ブランドリンク』よりも『ブランド名の文脈付き言及』を増やす
9

最初の30日でやること

先に答え

GEO は一気に完成させるより、公開ページの優先順位を決めて順に固める方が成果が出やすいです。最初の 30 日は、到達性、schema、主要ページの答え方、更新日、著者情報、観測体制の6点を揃えるところから始めます。

簡単6ステップ
1
1. 重要ページを10本に絞る

機能、価格、比較、FAQ、保存ガイドなど、AI に引用されたいページをまず決めます。

2
2. AI クローラーと llms.txt を整える

公開URLへの到達性を確認し、重要ページが robots や noindex で塞がれていないかを監査します。

3
3. Article / FAQPage / HowTo / BreadcrumbList を実装する

本文に存在する情報だけでなく、FAQ と手順も JSON-LD に反映します。

4
4. 各H2に直接回答を置く

見出し直下の 40〜60 語で答えを明示し、そのあとに根拠や表を続けます。

5
5. 著者・出典・更新日を visible にする

著者情報、参考資料、更新日、編集方針へのリンクをページ上で見えるようにします。

6
6. AI 可視性を観測し始める

引用されたURL、出現トピック、参照ドメイン、更新日を定期的に見て、勝ち筋を増やします。

まとめ

GEOで最優先なのは、AIクローラーがページに到達でき、AIがその内容を理解し、引用しやすい形で公開されていることです。robots.txt、llms.txt、JSON-LD、見出し直下の直接回答、定量データ、更新日、著者情報、参考資料、オフサイト言及を一体で整えると、AI検索での可視性を継続的に伸ばしやすくなります。

この記事の作り手
Kiroku編集部
保存実務と公開ページ保全を扱う編集チーム

Kiroku編集部は、公開ウェブページの保存、変更監視、証拠保全ワークフローを継続的に検証しながら、実務で使える保存ガイドを制作しています。

主な領域

  • 公開ウェブページの保存実務
  • X投稿とウェブページの証拠保全
  • URL監視と変更履歴の整理
  • AI検索と構造化データの実装設計

調査・更新方針

  • 一次情報を優先し、公式ドキュメント、政府・公的機関、プラットフォームのヘルプ、プロダクト実測をもとに記述します。
  • 保存フローや取得仕様に変更があった場合は、本文と更新日を見直します。
  • Kirokuの挙動説明は、実際の保存テストまたはコード上の実装確認を前提にしています。
  • 法的判断や個別案件の助言は行わず、必要に応じて専門家への確認を前提に案内します。

よくある質問

GEOはSEOと別物ですか?

別物ではありませんが、重心が違います。SEOが順位とクリックを中心に見るのに対して、GEOはAI回答に引用・言及されるための構造、鮮度、信頼性、意味づけを重視します。

robots.txt を開けばすぐ AI に引用されますか?

いいえ。到達性は前提条件にすぎません。実際には、構造化データ、直接回答、一次情報、更新日、著者、出典、外部言及まで揃ってはじめて引用されやすくなります。

FAQ や HowTo は本文にあれば十分ですか?

本文にあるだけでも読めますが、JSON-LD にも反映した方が意味が明確になります。UI と schema の両方で持つのが理想です。

コミュニティ言及はコードだけで改善できますか?

できません。Reddit、YouTube、レビューサイトでの自然な言及は、配信・PR・コミュニティ運用も必要です。ただし、比較記事、テンプレート、FAQ、ケーススタディを用意しておくと、外部で言及されやすい土台を作れます。

参考資料

まずは、AI に見つけてもらうべきページから整える

Kiroku のガイド、機能説明、FAQ、比較記事を順番に強くしていけば、GEO は一気にではなくても前に進められます。まずは重要ページを保存・可視化しながら、AI が引用しやすい構造へ直しましょう。