常見問題
robots.txt是什麼?
▼
robots.txt是放在網站根目錄的文字檔案,告訴搜尋引擎爬蟲哪些頁面可以爬取、哪些需要封鎖。它是SEO技術設定的第一道關卡,設定錯誤可能導致全站無法被索引。
robots.txt設定錯誤會有什麼後果?
▼
常見錯誤如「Disallow: /」會封鎖所有爬蟲,導致整個網站從搜尋結果消失。建議在Google Search Console的robots.txt測試工具確認設定正確。
如何讓AI爬蟲可以爬取網站?
▼
在robots.txt中明確允許GPTBot(OpenAI)、ClaudeBot(Anthropic)、PerplexityBot等AI爬蟲,並確認Cloudflare或其他CDN的機器人保護設定未誤擋AI爬蟲。