當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

robots是什么,robots怎么寫?

 2015-05-13 21:49  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競價(jià),好“米”不錯(cuò)過

深入認(rèn)識(shí)robots

搜索引擎使用spider程序自動(dòng)范文互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。Spider在訪問一個(gè)網(wǎng)站時(shí),會(huì)首頁檢查該網(wǎng)站的根域名下是否有一個(gè)叫robots.txt的純文本,這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站上創(chuàng)建一個(gè)robots.txt,在文件中聲明改網(wǎng)站中哪些目錄不讓搜索引擎收錄。(robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下。)

1、robots的用法

User-agent:定義進(jìn)制搜索引擎名字,比如說:百度(Baiduspider)、谷歌(Googlebot)、360(360Spider)等。*號(hào)代表全部搜索引擎

Disallow:不允許收錄

Allow:允許收錄

案例:

User-agent: * (聲明禁止所有的搜索引擎抓取以下內(nèi)容)

Disallow:/blog/(禁止網(wǎng)站blog欄目下所有的頁面。比如說:/blog/123.html)

Disallow:/api(比如說:/apifsdfds/123.html也會(huì)被屏蔽。)

Allow:/blog/12/(一般情況下不需要寫Allow的,而我們?cè)诮沟哪夸浵旅?,我們需要讓搜索引擎收錄,那么我們就可以使用Allow,比如說我們前面禁止了blog欄目下所有的頁面,同時(shí)我們想/12/欄目下被收錄,這個(gè)時(shí)候我們就需要通過Allow來允許搜索引擎的收錄。)

Disallow:*?*(只要你的路徑里面帶有問號(hào)的路徑,那么這條路徑將會(huì)被屏蔽。比如說:將會(huì)被屏蔽。)

Disallow:/*.php$(意思是以.php結(jié)尾的路徑全部屏蔽掉。)

如何使用Robots提升排名

一、屏蔽死鏈接

許多時(shí)候,我們網(wǎng)站會(huì)產(chǎn)生死鏈接,比如說:網(wǎng)站改版、文章刪除等,都很有可能會(huì)導(dǎo)致網(wǎng)站出現(xiàn)404頁面,那么這個(gè)時(shí)候我們就需要通過robots來屏蔽這些死鏈接。查看死鏈的方法有以下兩種:

1、)通過網(wǎng)站日志查詢。

我們可以通過下載網(wǎng)站日志來查看我們的404頁面(網(wǎng)站日志可以向空間商要,空間商會(huì)提供下載通道),我們用txt打開網(wǎng)站日志,通過搜索“404”,如果你網(wǎng)站有404頁面,并且被訪問到了,那么這個(gè)時(shí)候就會(huì)被網(wǎng)站日志給記錄。

2、)百度站長平臺(tái)查詢

我們首先需要驗(yàn)證百度站長平臺(tái)(如何驗(yàn)證就不說了,最基本的。)驗(yàn)證以后,我們通過百度站長工具的死鏈工具,可以清楚的看到,我們網(wǎng)站有哪些死鏈接。

二、屏蔽無價(jià)值的頁面

許多網(wǎng)站都有一些沒有價(jià)值的頁面,比如說SEO指導(dǎo)中心的用戶個(gè)人中心頁面,這個(gè)個(gè)人中心頁面不會(huì)對(duì)網(wǎng)站產(chǎn)生價(jià)值,在百度上面的展現(xiàn)也不會(huì)給網(wǎng)站帶來權(quán)重。因此我們需要利用robots來屏蔽這樣的頁面。又比如說:一個(gè)企業(yè)網(wǎng)站的聯(lián)系我們頁面,這種頁面不會(huì)給網(wǎng)站帶來權(quán)重,用戶也不會(huì)去搜索“聯(lián)系我們”來找他想要的產(chǎn)品。因此我們需要把這種頁面同時(shí)屏蔽。

三、屏蔽重復(fù)路徑

當(dāng)你網(wǎng)站出現(xiàn)重復(fù)路徑的時(shí)候,百度將會(huì)對(duì)我們的網(wǎng)站進(jìn)行直接降分,比如說:一個(gè)網(wǎng)站做了偽靜態(tài),同時(shí)他的動(dòng)態(tài)頁面也可以訪問,這個(gè)時(shí)候就會(huì)出現(xiàn)重復(fù)路徑。因此我們需要通過robots屏蔽這些重復(fù)路徑。

總結(jié):也許很多人都不知道,許多細(xì)節(jié)都很有可能是你網(wǎng)站排名不上的原因,而這些小小的細(xì)節(jié)往往被大家給忽略了。同時(shí)希望站長在做網(wǎng)站優(yōu)化的時(shí)候多多關(guān)注一些網(wǎng)站細(xì)節(jié)的問題。

SEO專題推薦:

關(guān)鍵詞優(yōu)化專題:網(wǎng)站關(guān)鍵詞優(yōu)化沒效果?來這里學(xué)習(xí)最實(shí)用的關(guān)鍵詞優(yōu)化技巧!

內(nèi)鏈優(yōu)化專題:最能提升網(wǎng)站權(quán)重的內(nèi)鏈部署優(yōu)化技巧與方法

外鏈建設(shè)專題:高質(zhì)量自然外鏈怎么做?讀完這些你將質(zhì)的飛躍

網(wǎng)站降權(quán)專題:2015年最有用的網(wǎng)站降權(quán)、被K、被黑、被攻擊的解決方法

用戶體驗(yàn)專題:學(xué)習(xí)完這些,作為站長的你可以秒懂如何做網(wǎng)站用戶體驗(yàn)

行業(yè)網(wǎng)站專題:優(yōu)化行業(yè)網(wǎng)站的“葵花寶典”看完后無優(yōu)化壓力

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽

相關(guān)文章

  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • 你不知道的robots文件那些事

    實(shí)際上百度只是擔(dān)心由于網(wǎng)站管理員不懂得robots.txt語法,導(dǎo)致搜索引擎蜘蛛無法正常抓取網(wǎng)站,才這樣寫的。建立robots.txt文件還是必需的,哪怕這個(gè)robots.txt文件是一個(gè)空白的文本文檔都可以。因?yàn)槲覀兊木W(wǎng)站畢竟不是僅僅會(huì)被百度收錄,同時(shí)也會(huì)被其他搜索引擎收錄,上傳一個(gè)空白的robo

    標(biāo)簽:
    robots標(biāo)簽
    robots
  • 解除網(wǎng)站Robots封禁全過程

    obots協(xié)議或者說robots文件對(duì)搜索引擎優(yōu)化中非常重要,但設(shè)置出錯(cuò)可能會(huì)導(dǎo)致收錄下降或不能正常收錄。今天,小小課堂SEO自學(xué)網(wǎng)帶來的是《【robots文件協(xié)議】解除Robots封禁全過程》。希望本次的百度SEO優(yōu)化培訓(xùn)對(duì)大家有所幫助。

  • 熊掌號(hào)必備seo知識(shí)1:robots文件

    最近很多站長咨詢關(guān)于熊掌號(hào)的問題,包括熊掌號(hào)和傳統(tǒng)seo之間的關(guān)系等,熊掌號(hào)在給網(wǎng)站提供更多的品牌特型、內(nèi)容保護(hù)之外,是否會(huì)遵循seo的基礎(chǔ)原理呢?曲曲小姐姐將在以后給大家逐一分享。

  • 網(wǎng)站上線前把robots寫了所有蜘蛛禁止抓取,取消后還是這樣怎么辦

    不知道有沒有其他站長跟我一樣,技術(shù)部把網(wǎng)站后臺(tái)搭建好了,然后網(wǎng)站還是很多東西需要修改的,特別是TDK改了一遍又一遍,但是這時(shí)候我沒有去百度站長申請(qǐng)閉站保護(hù),卻是在網(wǎng)站根目錄上傳了robots文件,里面寫著:User-agent:*Disallow:/這表示我的網(wǎng)站禁止所有蜘蛛來抓取,那么這種情況有什

    標(biāo)簽:
    robots標(biāo)簽
    robots

熱門排行

信息推薦