聯系電話:020-84179283
手機號碼:13376616485
您的位置 〉首頁 > {dq}SEO優化 > {dq}SEO優化資源 > {dq}SEO工具軟件
{dq}SEO優化
最新SEO優化資訊
{dq}SEO工具軟件
網站robots文件常見問題總結-{dq}SEO優化資訊

發布:通科云盟推廣    點擊次數:    更新時間:2016/3/23 13:22:02




什么是robots.txt文件?
搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容{dq}SEO優化資訊,請勿建立robots.txt文件。
robots.txt文件放在哪里?
robots.txt文件應該放置在網站根目錄下。舉例來說,當spider訪問一個網站(比如 http://www.***.com)時,首先會檢查該網站中是否存在http://www.***.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。
在robots.txt中禁止百度收錄,百度搜索結果中還會顯顯示嗎?
如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在百度的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,百度搜索結果中展示的僅是其他網站對您相關網頁的描述。
robots.txt文件用法舉例
1、禁止所有搜索引擎訪問網站的任何部分
Uer-agent: *
Disallow: /
2、允許所有的robot訪問
Uer-agent: *
Allow: /
3、僅禁止Baiduspider訪問您的網站
Uer-agent: Baiduspider
Disallow: /
4、僅允許百度Baiduspider訪問您的網站
Uer-agent: Baiduspider
Allow: /

Uer-agent: *
Disallow: /
5、僅允許百度Baiduspider和谷歌Googlebot訪問
Uer-agent: Baiduspider
Allow: /

Uer-agent: Googlebot
Allow: /

Uer-agent: *
Disallow: /
6、禁止spider訪問特定目錄
Uer-agent: *
Disallow: /目錄名稱
Disallow: /某某目錄
7、允許訪問特定目錄中的部分url
Uer-agent: *
Allow: /tmp/bin
8、使用“*”限制訪問url
Uer-agent: *
Disallow: /某某目錄/*.html
9、使用“$”限制訪問URL(僅允許訪問以“.html”為后綴的URL)
Uer-agent: *
Disallow: /
Allow: /*.html$
10、禁止訪問網站中的所有的動態頁面
Uer-agent: *
Disallow: /*?*
11、禁止Baiduspider抓取網站上的所有圖片
Uer-agent: Baiduspider
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
12、僅允許Baiduspier抓取網頁和.gif格式圖片
Uer-agent: Baiduspider
Allow:  /*.gif$
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.png$
Disallow: /*.bmp$
13、僅禁止Baiduspider抓取.jpg格式圖片
Uer-agent: Baiduspider
Disallow: /*.jpg$
robots.txt文件的格式
“robots.txt”文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結束符),每一條記錄的格式如下所示:
:
在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:
User-agent:
該項的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,如果有多條User-agent記錄說明有多個robot會受 到”robots.txt”的限制,{dq}SEO優化資訊,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。如果在”robots.txt”文件中,加入”User- agent:SomeBot”和若干Disallow、Allow行,那么名為”SomeBot”只受到”User-agent:SomeBot”后面的 Disallow和Allow行的限制。
Disallow:
該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如”Disallow:/help”禁止robot訪問/help.html、/helpabc.html、/help /index.html,而”Disallow:/help/”則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。”Disallow:”說明允許robot訪問該網站的所有url,在”/robots.txt”文件中,至少要有一 條Disallow記錄。如果”/robots.txt”不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。
Allow:
該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的 URL 是允許robot訪問的。例如”Allow:/hibaidu”允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁 同時禁止訪問其它所有URL的功能。


使用”*”and”$”:


Baiduspider支持使用通配符”*”和”$”來模糊匹配url。


“$” 匹配行結束符。


“*” 匹配0或多個任意字符。


{dq}SEO優化資訊
首頁 通科云盟推廣 {dq}網站推廣案例 {dq}網絡推廣資訊 {dq}關鍵詞排名查詢 {dq}SEO優化 {dq}網頁設計 關于通科 {dq}網站模版資訊 付款方式聯系我們
廣州通科信息技術有限公司
手機微信同號:13376616485 電話:020-84179283   84179297
傳真:020-84179283
Email:1453393242@qq.com
地址:廣州市黃埔區大沙東路新戽街299號
廣州通科信息技術有限公司汕頭分公司
電話:0754-88870306
銷售QQ: 800083278   渠道代理合作QQ:2968595618 1453393242
業務email:2968595618@qq.com
售后服務及技術QQ:1007424177   514969725
CopyRight 2015   粵ICP備05004572號
夜夜穞狠狠穞