當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

教你robots.txt設(shè)置方法技巧

 2015-03-16 16:20  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過

在SEO優(yōu)化網(wǎng)站當(dāng)中,做好robots.txt至關(guān)重要因?yàn)槊總€(gè)搜索引擎抓取網(wǎng)站信息第一步就是爬去robots.txt文件來引導(dǎo)搜索引擎爬取;合理的使用robots文件能夠更好的集中網(wǎng)站的權(quán)重,避免一些不想被搜索引擎查看的文件抓取,是非常必要的一種SEO手段,但是好多做seo的朋友對(duì)于robots的文件使用不是特別了解,僅僅知道Disallow是禁止,allow是允許,以及一些常用的搜索引擎的訪問禁止寫法,對(duì)于在復(fù)雜的一些不知道如何去寫,其實(shí)本人開始也對(duì)于robots不知道如何著手去寫,但是隨著做seo時(shí)間推移,以及經(jīng)驗(yàn)的豐富,筆者總結(jié)出了一套自己設(shè)置robots的方法,首先為大家介紹在robots設(shè)置當(dāng)中需要注意的一些事項(xiàng):

1、作為搜索引擎最先訪問的目錄,過長(zhǎng)的robots文件也會(huì)影響蜘蛛的爬取速度,所以對(duì)于禁止搜索引擎的網(wǎng)頁(yè),可以適度的去使用noffollow標(biāo)記,使其不對(duì)該網(wǎng)站傳遞權(quán)重。

2、對(duì)于Disallow和Allow的設(shè)置是有先后順序之分的,搜索引擎會(huì)根據(jù)第一個(gè)匹配成功的Allow與Disallow來確定首先訪問那個(gè)url地址。

3、在robots設(shè)置當(dāng)中關(guān)于Disallow當(dāng)中/和//的區(qū)別。在robots文件設(shè)置當(dāng)中,Disallow:/abc是禁止訪問abc.html和/abc/123.html等文件,而對(duì)于disallow:/abc/來說,是允許對(duì)于/abc.html進(jìn)行訪問,但是對(duì)于/abc/123.html是進(jìn)行禁止的。

4、在robots設(shè)置當(dāng)中“*”和“$”的設(shè)置,其中”$” 匹配行結(jié)束符。”*” 匹配0或多個(gè)任意字符。

好了掌握了這些知識(shí),你可能會(huì)說我還是不知道如何去設(shè)置robots文件,那么該怎么辦呢?

首先,確定你需要禁止的內(nèi)容,然后注冊(cè)谷歌管理員工具,通過搜索引擎查找你想禁止內(nèi)容的寫法,然后登陸百度管理員工具,選擇網(wǎng)站配置>抓取工具的權(quán)限>測(cè)試robots.txt把你想要禁止內(nèi)容的語(yǔ)法填入文本框當(dāng)中,然后點(diǎn)擊下面進(jìn)行測(cè)試,會(huì)出現(xiàn)測(cè)試的結(jié)果,如果有錯(cuò)誤,根據(jù)錯(cuò)誤提示在進(jìn)行相應(yīng)的修改就可以了。

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots.txt技巧

相關(guān)文章

  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時(shí)候,留下一個(gè)問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 看完秒懂robots.txt寫法和注意事項(xiàng)

    robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問網(wǎng)站時(shí),第一個(gè)抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的。

  • 解除網(wǎng)站Robots封禁全過程

    obots協(xié)議或者說robots文件對(duì)搜索引擎優(yōu)化中非常重要,但設(shè)置出錯(cuò)可能會(huì)導(dǎo)致收錄下降或不能正常收錄。今天,小小課堂SEO自學(xué)網(wǎng)帶來的是《【robots文件協(xié)議】解除Robots封禁全過程》。希望本次的百度SEO優(yōu)化培訓(xùn)對(duì)大家有所幫助。

  • robots協(xié)議對(duì)網(wǎng)站、搜索引擎的重要性

    很多站長(zhǎng)最頭疼的一個(gè)問題就是,搜索引擎蜘蛛為什么不光顧自己的網(wǎng)站,或者光顧頻率比較低。這樣對(duì)網(wǎng)站收錄的影響是比較大的,直接影響到網(wǎng)站的排名。先談一下搜索引擎蜘蛛的工作原理吧,蜘蛛又稱網(wǎng)絡(luò)爬蟲、網(wǎng)頁(yè)蜘蛛、網(wǎng)絡(luò)機(jī)器人,更生動(dòng)的叫網(wǎng)頁(yè)追逐者。一種按照一定的規(guī)則,自動(dòng)地抓取萬維網(wǎng)信息的程序或者腳本。另外一些

    標(biāo)簽:
    robots.txt技巧

熱門排行

信息推薦