為什麼 AI 引用很重要?
當 Perplexity 回答使用者的問題時,它會在答案下方附上引用來源的連結。當 ChatGPT 透過搜尋功能找到你的內容,它會直接顯示你的網站名稱和連結。這些 AI 引用不只是曝光——它們帶來的是高意圖、高信任度的流量。
根據 2026 年的數據,來自 AI 引用的訪客平均停留時間比一般搜尋流量高出 40%,轉換率也更高。原因很簡單:AI 已經幫使用者篩選過了,點進來的人真的對你的內容感興趣。
以下是 5 個經過驗證的步驟,幫助你的網站成為 AI 的引用來源。
步驟一:添加 JSON-LD 結構化資料
JSON-LD 是讓 AI 理解你頁面內容的最重要技術。沒有結構化資料的頁面,對 AI 來說就像一本沒有目錄的書——它可以讀,但效率很低。
文章頁面必備的 JSON-LD
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "你的文章標題",
"description": "文章的簡短描述",
"author": {
"@type": "Person",
"name": "作者名稱",
"url": "https://example.com/author"
},
"publisher": {
"@type": "Organization",
"name": "你的網站名稱",
"logo": {
"@type": "ImageObject",
"url": "https://example.com/logo.png"
}
},
"datePublished": "2026-04-13",
"dateModified": "2026-04-13",
"mainEntityOfPage": {
"@type": "WebPage",
"@id": "https://example.com/your-article"
}
}
</script>
關鍵提醒:一定要填寫 dateModified,AI 爬蟲會用這個判斷內容是否過時。
步驟二:建立 llms.txt 檔案
llms.txt 是 2025 年興起的新標準,專門幫助 AI 理解你的網站。把它放在網站根目錄(example.com/llms.txt)。
llms.txt 範本
# 你的網站名稱
> 一句話描述你的網站提供什麼價值
主要內容
專業領域
本站專注於 [你的專業領域],提供 [具體價值描述]。
聯絡方式
- Email: hello@example.com
- Twitter: @yourhandle
llms.txt 的內容要簡潔明瞭。AI 爬蟲會在幾毫秒內讀完這個檔案,所以不要放太多無關資訊。
步驟三:最佳化 FAQ Schema
FAQ(常見問答)是 AI 最喜歡引用的內容格式之一。為什麼?因為 FAQ 的格式天然就是「問題 + 答案」,與使用者向 AI 提問的方式完全吻合。
FAQ Schema 實作
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "什麼是 AEO?",
"acceptedAnswer": {
"@type": "Answer",
"text": "AEO(Answer Engine Optimization)是針對 AI 答案引擎的網站優化策略,目標是讓你的網站被 ChatGPT、Perplexity 等 AI 工具引用。"
}
},
{
"@type": "Question",
"name": "AEO 和 SEO 有什麼不同?",
"acceptedAnswer": {
"@type": "Answer",
"text": "SEO 優化的目標是搜尋引擎排名,AEO 優化的目標是被 AI 引擎引用。兩者技術重點不同,但可以互補。"
}
}
]
}
</script>
FAQ 內容撰寫要訣
- 問題要具體 — 「什麼是 AEO?」比「AEO 是什麼意思?」更好
- 答案要精確 — 第一句話就給出核心答案,後面再補充細節
- 涵蓋相關問題 — 每個主題至少準備 3-5 個常見問題
- 用使用者的語言 — 想想人們會怎麼向 AI 提問
步驟四:確保 robots.txt 允許 AI 爬蟲
這是最簡單但最常被忽略的步驟。你的 robots.txt 必須明確允許 AI 爬蟲訪問你的網站。
推薦的 robots.txt 設定
# 允許主要 AI 爬蟲
User-agent: GPTBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: DeepSeekBot
Allow: /
# Sitemap 位置
Sitemap: https://example.com/sitemap.xml
常見錯誤
很多網站的 robots.txt 裡有這樣的規則,會意外封鎖所有 AI 爬蟲:
# 這會封鎖所有未知爬蟲,包括 AI 爬蟲!
User-agent: *
Disallow: /
如果你需要封鎖一般爬蟲但允許 AI 爬蟲,請在 Disallow 規則之前,為每個 AI 爬蟲單獨添加 Allow 規則。
步驟五:用 AEO Scanner 監控與持續優化
完成以上四個步驟後,你需要一個工具來驗證所有設定是否正確,並持續追蹤你的 AEO 分數。
AEO Scanner 能檢測的項目
- 結構化資料驗證 — JSON-LD 是否正確、完整
- llms.txt 檢查 — 檔案是否存在、格式是否正確
- FAQ Schema 驗證 — FAQ 標記是否符合標準
- robots.txt 分析 — AI 爬蟲是否被允許
- Open Graph 標籤 — 社群分享資訊是否完整
- Meta 標籤 — 標題和描述是否最佳化
- 圖片 Alt 文字 — 圖片是否有替代文字
持續優化的節奏
建議的監控頻率:
| 項目 | 頻率 | 原因 |
| AEO 掃描 | 每週一次 | 追蹤分數變化趨勢 |
| 結構化資料 | 每次發布新頁面 | 確保新內容符合標準 |
| robots.txt | 每月一次 | 確認沒有意外修改 |
| llms.txt | 每月一次 | 更新重要頁面列表 |
| AI 爬蟲日誌 | 每週一次 | 觀察爬取頻率變化 |
開始你的第一次掃描
這五個步驟不需要一次全部完成。建議從步驟四(robots.txt)開始,因為它最簡單且效果最直接。然後依序完成其他步驟。每完成一個步驟,就用 AEO Scanner 掃描一次,看看你的分數提升了多少。現在就試試吧——輸入你的網址,幾秒鐘就能看到結果。