日本一卡精品视频免费丨国产午夜片无码区在线播放丨国产精品成人久久久久久久丨国产亚洲日韩av在线播放不卡丨亚洲日韩av无码

robots.txt文件是什么?robots.txt的寫法

2017/2/14 8:47:02   閱讀:1937    發布者:1937

  robots.txt是一個純文本文件,是搜索引擎訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。每個站點最好建立一個robots.txt文件,對網站SEO優化有很很好的作用。

  每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt(即使這個robots.txt文件只是一個空文件)。

  robots.txt的寫法(語法)

  1)User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協議對任何機器人均有效。

  2)Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網站。以Disallow開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問。

  3)用法舉例:

  網站目錄下所有文件均能被所有搜索引擎蜘蛛訪問

  User-agent: *

  Disallow:

  禁止所有搜索引擎蜘蛛訪問網站的任何部分

  User-agent: *

  Disallow: /

  禁止所有的搜索引擎蜘蛛訪問網站的幾個目錄

  User-agent: *

  Disallow: /a/

  Disallow: /b/

  禁止搜索引擎蜘蛛訪問目錄a和目錄b

  User-agent: Googlebot

  Disallow:

  只允許某個搜索引擎蜘蛛訪問

  您應該限制網站某些文件不被蜘蛛抓取。

  一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

主站蜘蛛池模板: 国产又爽又黄又湿免费99| 少妇伦子伦精品无吗| 日本一区午夜艳熟免费| 黄色网页在线免费观看| 性色av一区二区三区夜夜嗨| 天天爱天天做天天爽夜夜揉 | 亚洲人成亚洲人成在线观看 | 亚洲久悠悠色悠在线播放| 国产午夜无码视频在线观看| 人妻无码人妻有码中文字幕在线| 中文字幕人妻无码一区二区三区| 欧美另类xxxx| 亚洲国产精品无码久久久| 日日干夜夜爱| 996热re视频精品视频这里| 欧美色aⅴ欧美综合色| 亚洲成人一| 97一区二区国产好的精华液| 五月天六月婷| 少妇粉嫩小泬白浆流出| 国产色a∨在线看免费| 国产98色在线 | 日韩| 一本色道久久88综合日韩精品| 99久热在线精品视频观看| 国产成人麻豆精品午夜在线| 老鸭窝视频在线观看| 五月婷婷网站| 无码人妻一区二区三区av| 99久久精品国产一区二区蜜芽 | 国产男女无遮挡猛进猛出| 中文字幕在线视频一区二区三区| 国产有码在线| 理论片午午伦夜理片影院| 日韩人妻系列无码专区| 毛片在线播放a| 亚洲欲色欲香天天综合网| 国产精品久久久久一区二区三区| 国产一区二区亚洲精品|