Robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。
搜索引擎機器人訪問網站時,首先會尋找站點根目錄有沒有 robots.txt文件,如果有這個文件就根據文件的內容確定收錄范圍,如果沒有就按默認訪問以及收錄所有頁面。另外,當搜索蜘蛛發現不存在robots.txt文件時,會產生一個404錯誤日志在服務器上,從而增加服務器的負擔,因此為站點添加一個robots.txt文件還是很重要的。
知道Robots協議的作用后,下面具體說一下WordPress站點如何編寫robots.txt文件。
WordPress站點默認在瀏覽器中輸入:http://你的域名/robots.txt,會顯示如下內容:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
這是由WordPress自動生成的,意思是告訴搜索引擎不要抓取后臺程序文件。
但這是遠遠不夠的,比較完整的WordPress站點robots.txt文件內容如下:
- User-agent: *
- Disallow: /wp-admin/
- Disallow: /wp-content/
- Disallow: /wp-includes/
- Disallow: page/
- Disallow: /tagtrackback
- Disallow: /feed
- Disallow: ?s=*/
- Disallow: /attachment/
使用方法:新建一個名稱為robots.txt文本文件,將上面的內容放進去,然后上傳到網站根目錄即可。
下面分別解釋一下各項的作用:
1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/
用于告訴搜索引擎不要抓取后臺程序文件頁面。
2、Disallow: page/和Disallow: /tagtrackback
禁止搜索引擎抓取收錄trackback等垃圾信息
5、Disallow: /feed、Disallow: ?s=*/
禁止搜索引擎抓取站內搜索結果
7、Disallow: /*?*
禁止搜索抓取動態頁面
8、Disallow: /attachment/
禁止搜索引擎抓取附件頁面,比如毫無意義的圖片附件頁面。
上面只是些基本的寫法,當然還有很多,不過夠用了。
新聞熱點
疑難解答
圖片精選