robots.txt文件你真的知道怎么用嗎?

搜索引擎通過一種程序robot(又稱spider),自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。
搜索引擎通過一種程序robot(又稱spider),自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。
您可以在您的網(wǎng)站中創(chuàng)建一個純文本文件robots.txt,在這個文件中聲明該網(wǎng)站中不想被robot訪問的部分,這樣,該網(wǎng)站的部分或全部內(nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。
當(dāng)一個搜索機器人(有的叫搜索蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,那么搜索機器人就沿著鏈接抓取。
robots.txt文件的格式:
“robots.txt”文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
“<field>:<optionalspace><value><optionalspace>”。
在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細情況如下:
User-agent:
該項的值用于描述搜索引擎robot的名字,在 ”robots.txt”文件中,如果有多條User-agent記錄說明有多個robot會受到該協(xié)議的限制,對該文件來說,至少要有一條User- agent記錄。如果該項的值設(shè)為*,則該協(xié)議對任何機器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。
Disallow:
該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow開頭的URL均不會被robot 訪問到。例如”Disallow:/help”對/help.html 和/help/index.html都不允許搜索引擎訪問,而”Disallow:/help/”則允許robot訪問/help.html,而不能訪問 /help/index.html。任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問,在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。
robots.txt文件用法舉例:
例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分 下載該robots.txt文件 User-agent: * Disallow: /
例2. 允許所有的robot訪問 (或者也可以建一個空文件 “/robots.txt” file) User-agent: *Disallow:
例3. 禁止某個搜索引擎的訪問 User-agent: BadBotDisallow: /
例4. 允許某個搜索引擎的訪問 User-agent: baiduspiderDisallow: User-agent: *Disallow: /
例 5.一個簡單例子 在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄?! ⌒枰⒁獾氖菍γ恳粋€目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”?! ser-agent:后的*具有特殊的含義,代表”any robot”,所以在該文件中不能有”Disallow: /tmp/*” or “Disallow:*.gif”這樣的記錄出現(xiàn)。 User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/
Robot特殊參數(shù):
1. Google
允許 Googlebot:
如果您要攔截除 Googlebot 以外的所有漫游器訪問您的網(wǎng)頁,可以使用下列語法:
User-agent:Disallow:/
User-agent:Googlebot
Disallow:
Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。
“Allow”擴展名:
Googlebot 可識別稱為”Allow”的 robots.txt 標(biāo)準(zhǔn)擴展名。其他搜索引擎的漫游器可能無法識別此擴展名,因此請使用您感興趣的其他搜索引擎進行查找。”Allow”行的作用原理完全與 ”Disallow”行一樣。只需列出您要允許的目錄或頁面即可。
您也可以同時使用”Disallow”和”Allow”。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:
User-Agent:Googlebot
Disallow:/folder1/
Allow:/folder1/myfile.html
這些條目將攔截 folder1 目錄內(nèi)除 myfile.html 之外的所有頁面。
如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用”Allow”規(guī)則允許該漫游器的訪問。例如:
User-agent:Googlebot
Disallow:/
User-agent:Googlebot-Mobile
Allow:
使用 * 號匹配字符序列:
您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目:
User-Agent:Googlebot
Disallow:/private*/
要攔截對所有包含問號 (?) 的網(wǎng)址的訪問,可使用下列條目:
User-agent:*
Disallow:/*?*
使用 $ 匹配網(wǎng)址的結(jié)束字符
您可使用 $ 字符指定與網(wǎng)址的結(jié)束字符進行匹配。例如,要攔截以 .asp 結(jié)尾的網(wǎng)址,可使用下列條目:
User-Agent:Googlebot
Disallow:/*.asp$
您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,可對 robots.txt 文件進行如下設(shè)置:
User-agent:*
Allow:/*?$
Disallow:/*?
Disallow:/ *?一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。
Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。
Sitemap 網(wǎng)站地圖:
對網(wǎng)站地圖的新的支持方式,就是在robots.txt文件里直接包括sitemap文件的鏈接。
就像這樣:
Sitemap: http://www.eastsem.com/sitemap.xml
目前對此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。
不過,我建議還是在Google Sitemap 進行提交,里面有很多功能可以分析你的鏈接狀態(tài)。
更多精彩點擊下一頁
#p#
搜索引擎通過一種程序robot(又稱spider),自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。
Robots.txt帶來的好處:
1. 幾乎所有的搜索引擎Spider都遵循robots.txt給出的爬行規(guī)則,協(xié)議規(guī)定搜索引擎Spider進入某個網(wǎng)站的入口即是該網(wǎng)站的 robots.txt,當(dāng)然,前提是該網(wǎng)站存在此文件。對于沒有配置robots.txt的網(wǎng)站,Spider將會被重定向至404 錯誤頁面,相關(guān)研究表明,如果網(wǎng)站采用了自定義的404錯誤頁面,那么Spider將會把其視作robots.txt——雖然其并非一個純粹的文本文件 ——這將給Spider索引網(wǎng)站帶來很大的困擾,影響搜索引擎對網(wǎng)站頁面的收錄。
2. robots.txt可以制止不必要的搜索引擎占用服務(wù)器的寶貴帶寬,如email retrievers,這類搜索引擎對大多數(shù)網(wǎng)站是沒有意義的;再如image strippers,對于大多數(shù)非圖形類網(wǎng)站來說其也沒有太大意義,但卻耗用大量帶寬。
3. robots.txt可以制止搜索引擎對非公開頁面的爬行與索引,如網(wǎng)站的后臺程序、管理程序,事實上,對于某些在運行中產(chǎn)生臨時頁面的網(wǎng)站來說,如果未配置robots.txt,搜索引擎甚至?xí)饕切┡R時文件。
4. 對于內(nèi)容豐富、存在很多頁面的網(wǎng)站來說,配置robots.txt的意義更為重大,因為很多時候其會遭遇到搜索引擎Spider給予網(wǎng)站的巨大壓力:洪水般的Spider訪問,如果不加控制,甚至?xí)绊懢W(wǎng)站的正常訪問。
5. 同樣地,如果網(wǎng)站內(nèi)存在重復(fù)內(nèi)容,使用robots.txt限制部分頁面不被搜索引擎索引和收錄,可以避免網(wǎng)站受到搜索引擎關(guān)于 duplicate content的懲罰,保證網(wǎng)站的排名不受影響。
robots.txt帶來的風(fēng)險及解決:
1. 凡事有利必有弊,robots.txt同時也帶來了一定的風(fēng)險:其也給攻擊者指明了網(wǎng)站的目錄結(jié)構(gòu)和私密數(shù)據(jù)所在的位置。雖然在Web服務(wù)器的安全措施配置得當(dāng)?shù)那疤嵯逻@不是一個嚴(yán)重的問題,但畢竟降低了那些不懷好意者的攻擊難度。
比如說,如果網(wǎng)站中的私密數(shù)據(jù)通過www.yourdomain.com/private/index.html 訪問,那么,在robots.txt的設(shè)置可能如下:
User-agent: *
Disallow: /private/
這樣,攻擊者只需看一下robots.txt即可知你要隱藏的內(nèi)容在哪里,在瀏覽器中輸入www.yourdomain.com/private/ 便可訪問我們不欲公開的內(nèi)容。對這種情況,一般采取如下的辦法:
設(shè)置訪問權(quán)限,對/private/中的內(nèi)容實施密碼保護,這樣,攻擊者便無從進入。
另一種辦法是將缺省的目錄主文件index.html更名為其他,比如說abc-protect.html,這樣,該內(nèi)容的地址即變成 www.yourdomain.com/private/abc-protect.htm,同時,制作一個新的index.html文件,內(nèi)容大致為“你沒有權(quán)限訪問此頁”之類,這樣,攻擊者因不知實際的文件名而無法訪問私密內(nèi)容。
2. 如果設(shè)置不對,將導(dǎo)致搜索引擎將索引的數(shù)據(jù)全部刪除。
User-agent: *
Disallow: /
上述代碼將禁止所有的搜索引擎索引數(shù)據(jù)。
目前看來,絕大多數(shù)的搜索引擎機器人都遵守robots.txt的規(guī)則,而對于Robots META標(biāo)簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令“archive”,可以限制GOOGLE是否保留網(wǎng)頁快照。例如:
<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>
表示抓取該站點中頁面并沿著頁面中鏈接抓取,但是不在GOOLGE上保留該頁面的網(wǎng)頁快照。
相關(guān)文章
這幾天爆火的chatgpt是啥? 與SEO有沒有關(guān)系? 速看
近日,OpenAI 帶來了一種全新的 AI 聊天機器人——ChatGPT,它不僅能對話、寫作還能編程、Debug,厲害得嚇人,那么chatgpt與SEO有沒有關(guān)系?詳細請看下文介紹2022-12-10- 這篇文章主要介紹了收錄與索引是什么意思?收錄和索引的區(qū)別是什么?的相關(guān)資料,需要的朋友可以參考下本文詳細內(nèi)容介紹2022-11-07
大網(wǎng)站與小網(wǎng)站做排名流量的區(qū)別是什么
這篇文章主要介紹了大網(wǎng)站與小網(wǎng)站做排名流量的區(qū)別是什么的相關(guān)資料,需要的朋友可以參考下本文詳細內(nèi)容介紹2022-11-07- 不同的搜索引擎提供了服務(wù)后臺常見功能來優(yōu)化網(wǎng)站搜索,下面文章就為大家詳細介紹,一起看看吧2021-10-14
新站如何優(yōu)化 網(wǎng)站收錄/關(guān)鍵詞排名等問題解答
筆者最近收到很多關(guān)于新站優(yōu)化的咨詢,問題無外乎是網(wǎng)站首頁怎么還沒收錄、網(wǎng)站內(nèi)容什么時候收錄、關(guān)鍵詞排名什么時候才能上來等等。這些問題看似很重要,但筆者認(rèn)為對上線2021-03-19如何快速收錄網(wǎng)站內(nèi)容 想要快速收錄網(wǎng)站內(nèi)容的注意事項
對于網(wǎng)站SEO優(yōu)化而言,頁面收錄是很重要的環(huán)節(jié),因為如果網(wǎng)站沒有收錄,或者網(wǎng)站收錄少的話,那么就談不上關(guān)鍵詞排名了。那么如何快速收錄網(wǎng)站,如何快速收錄一篇文章呢?本2021-03-19- 2020年如何利用SEO增加流量?下文小編就為大家?guī)碓敿毥坛蹋信d趣的朋友可以一起看看2020-03-06
- 當(dāng)我們優(yōu)化我們的網(wǎng)站時,有時發(fā)現(xiàn)我們優(yōu)化好的關(guān)鍵詞的排名突然變得不穩(wěn)定。這要怎么辦呢?下文小編就為大家整理了幾天避免下降方法,一起看看吧2020-03-02
企業(yè)網(wǎng)站被降權(quán)的具體原因有那些 企業(yè)網(wǎng)站被降權(quán)的原因分析
企業(yè)網(wǎng)站被降權(quán)的具體原因有那些?下文中為大家?guī)砹似髽I(yè)網(wǎng)站被降權(quán)的四大因素分析。感興趣的朋友不妨閱讀下文內(nèi)容,參考一下吧2019-11-13老網(wǎng)站突然不收錄了為什么 多年的老網(wǎng)站突然不收錄的原因及解決方法
老網(wǎng)站突然不收錄了為什么?下文中為大家?guī)砹硕嗄甑睦暇W(wǎng)站突然不收錄的14個原因及解決方法。感興趣的朋友不妨閱讀下文內(nèi)容,參考一下吧2019-11-13