當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

你不知道的robots文件那些事

 2019-07-25 10:26  來(lái)源: A5用戶(hù)投稿   我來(lái)投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過(guò)

robots.txt文件,是每一個(gè)搜索引擎蜘蛛到你的網(wǎng)站之后要尋找和訪問(wèn)的第一個(gè)文件,robots.txt是你對(duì)搜索引擎制定的一個(gè)如 何索引你的網(wǎng)站的規(guī)則。通過(guò)該文件,搜索引擎就可以知道在你的網(wǎng)站中哪些文件是可以被索引的,哪些文件是被拒絕索引的。我們就可以很方便地控制搜索引擎索引網(wǎng)站內(nèi)容了。 在很多網(wǎng)站中,站長(zhǎng)們都忽略了使用robots.txt文件。

因?yàn)楹芏嗾鹃L(zhǎng)都認(rèn)為,自己的網(wǎng)站沒(méi)有什么秘密可言,而且自己也不太會(huì)使用robots.txt的語(yǔ)法,因此一旦寫(xiě)錯(cuò)了會(huì)帶來(lái)更多的麻煩,還不如不用。 其實(shí)這樣的做法是不對(duì)的。如果蜘蛛在某個(gè)網(wǎng)站*問(wèn)了一個(gè)不存在的URL,那么就會(huì)記錄下一條404信息(網(wǎng)頁(yè)不存在),而robots.txt作為蜘蛛訪問(wèn)網(wǎng)站的第一個(gè)文件,一旦搜索引擎找不到這個(gè)文件,也會(huì)在它的索引服務(wù)器上記錄下一條404信息。如果這樣的404信息過(guò)多,那么搜索引擎蜘蛛就會(huì)認(rèn)為該網(wǎng)站價(jià)值較低,從而降低對(duì)該網(wǎng)站的“印象分”,這就是我們經(jīng)常會(huì)聽(tīng)到的“降低權(quán)重”。

“權(quán)重”是一個(gè)影響網(wǎng)站在搜索引擎排名中非常重要的因素,如果網(wǎng)站的權(quán)重高,那么搜索引擎蜘蛛也會(huì)頻繁地訪問(wèn)該網(wǎng)站,而且網(wǎng)站排名也好。如果權(quán)重低,那么搜索引擎蜘蛛對(duì)于網(wǎng)站的訪問(wèn)次數(shù)也相應(yīng)的要少,同時(shí)網(wǎng)站排名較差。而網(wǎng)站的權(quán)重是由很多條件所積累的,404信息就是很重要的一條,因此不得不重視。 雖然在百度的幫助文件中,有這樣的一句話“請(qǐng)注意,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上的所有內(nèi)容,請(qǐng) 勿建立robots.txt文件”。

實(shí)際上百度只是擔(dān)心由于網(wǎng)站管理員不懂得robots.txt語(yǔ)法,導(dǎo)致搜索引擎蜘蛛無(wú)法正常抓取網(wǎng)站,才這樣寫(xiě)的。建立robots.txt文件還是必需的,哪怕這個(gè)robots.txt文件是一個(gè)空白的文本文檔都可以。因?yàn)槲覀兊木W(wǎng)站畢竟不是僅僅會(huì)被百度收錄,同時(shí)也會(huì)被其他搜索引擎收錄,上傳一個(gè)空白的robots.txt文件,至少不會(huì)導(dǎo)致一條404信息的產(chǎn)生。

本文來(lái)源:裕順網(wǎng)絡(luò)www.ahyushun.com如有轉(zhuǎn)載請(qǐng)注明出處

友情提示:A5官方SEO服務(wù),為您提供權(quán)威網(wǎng)站優(yōu)化解決方案,快速解決網(wǎng)站流量異常,排名異常,網(wǎng)站排名無(wú)法突破瓶頸等服務(wù):http://www.admin5.cn/seo/zhenduan/

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽
robots

相關(guān)文章

  • robots協(xié)議怎么寫(xiě) 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫(xiě))是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱(chēng)網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說(shuō)明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫(xiě)出來(lái)是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • robots文件編寫(xiě)秘籍 新手必看

    當(dāng)我們的網(wǎng)站上線之后,一定會(huì)有一些不想讓百度抓取的頁(yè)面、文件,針對(duì)這種問(wèn)題,我們就要使用協(xié)議去屏蔽。那么這個(gè)協(xié)議是什么?究竟怎么寫(xiě)這個(gè)協(xié)議呢?

    標(biāo)簽:
    robots文件
    robots
  • robots.txt文件怎么寫(xiě)才正確呢?

    曾慶平SEO在前面的文章中講過(guò)robots.txt概念的時(shí)候,留下一個(gè)問(wèn)題:為什么曾慶平SEO的robots.txt寫(xiě)得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來(lái)網(wǎng)站更規(guī)范和權(quán)威。

  • 百度站長(zhǎng)平臺(tái)檢測(cè)robots.txt 提示301錯(cuò)誤代碼 怎么解決

    如果以上都沒(méi)有錯(cuò)誤,那么你就要檢查你的CDN了,很可能是因?yàn)镃DN緩存而造成的,或者是你配置了https,而站長(zhǎng)平臺(tái)卻綁定的http,無(wú)法訪問(wèn),這兩點(diǎn)自己排查,如果以上都做到,那么是不會(huì)提示這類(lèi)錯(cuò)誤的,當(dāng)然也不排查百度站長(zhǎng)平臺(tái)本身的問(wèn)題,不過(guò)這種機(jī)率性很小。

熱門(mén)排行

信息推薦