日本一卡精品视频免费丨国产午夜片无码区在线播放丨国产精品成人久久久久久久丨国产亚洲日韩av在线播放不卡丨亚洲日韩av无码

robots.txt文件是什么?robots.txt的寫法

2017/2/14 8:47:02   閱讀:1787    發布者:1787

  robots.txt是一個純文本文件,是搜索引擎訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。每個站點最好建立一個robots.txt文件,對網站SEO優化有很很好的作用。

  每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt(即使這個robots.txt文件只是一個空文件)。

  robots.txt的寫法(語法)

  1)User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協議對任何機器人均有效。

  2)Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網站。以Disallow開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問。

  3)用法舉例:

  網站目錄下所有文件均能被所有搜索引擎蜘蛛訪問

  User-agent: *

  Disallow:

  禁止所有搜索引擎蜘蛛訪問網站的任何部分

  User-agent: *

  Disallow: /

  禁止所有的搜索引擎蜘蛛訪問網站的幾個目錄

  User-agent: *

  Disallow: /a/

  Disallow: /b/

  禁止搜索引擎蜘蛛訪問目錄a和目錄b

  User-agent: Googlebot

  Disallow:

  只允許某個搜索引擎蜘蛛訪問

  您應該限制網站某些文件不被蜘蛛抓取。

  一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

主站蜘蛛池模板: 未满十八18禁止午夜免费网站| 国产产区一二三产区区别在线| 黄色大片免费的| 久久久久久亚洲精品成人| av影视在线观看| 无遮挡色视频免费观看| 午夜刺激视频| 中文字幕一区在线观看视频 | 天堂综合久久| 亚洲乱妇熟女爽到高潮的片| 老司机伊人| 亚洲熟妇久久国产精品| 国产一区二区三区在线视頻| 精品亚洲一区二区三区在线播放| 她也啪在线视频| 国精产品一区二区三区有限公司| 日韩成人极品在线内射3p蜜臀| 成人免费8888在线视频| 伊人久久综合色| 日本三级在线观看免费| 亚洲日韩中文字幕无码一区| 最新国产在线拍揄自揄视频| 中国精品18videosex性中国| 老熟女高潮喷水了| 一级美女大片| 国产精品午夜福利视频234区| 白白色2012年最新视频| 久久国产自偷自偷免费一区调| 青娱乐超碰| 婷婷五月综合色视频| 国产曰肥老太婆无遮挡| 久久午夜神器| 久久人人爽人人爽人人片亞洲| av毛片不卡| 久久精品一区二区三区四区| 久久婷婷国产综合| 免费视频爱爱太爽了激情| 日本在线看片免费人成视频|