域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過
今天我們來討論一個(gè)比較重要的內(nèi)容,百度是否抓取我們網(wǎng)站js,百度蜘蛛是否識(shí)別我們網(wǎng)站js中的內(nèi)容,百度抓取js有哪些壞處,需要屏蔽js么,我們當(dāng)前這篇文章會(huì)詳細(xì)的講解這一塊的內(nèi)容!
百度是否會(huì)抓取網(wǎng)站js文件?
其實(shí)大家可以通過分析蜘蛛發(fā)現(xiàn),百度是抓取js的,以前很多人都說百度是不會(huì)抓取js和css的,其實(shí)這個(gè)說法是絕對(duì)不對(duì)的,百度不單單會(huì)抓取,還會(huì)比較頻繁,不單單百度抓取,360、搜狗、神馬搜索引擎,都會(huì)進(jìn)行抓取的。
百度蜘蛛目前是否識(shí)別js?
百度是否有能力識(shí)別js這件事,我可以明確告訴大家,是絕對(duì)可以識(shí)別的,而且90%以上的js都是可以進(jìn)行識(shí)別的,為什么這么說那,大家不妨想一下,百度出了一個(gè)“石榴算法”專門打擊頁面中大量彈窗,而彈窗廣告,大部分都是js代碼,如果百度無法識(shí)別js,又怎么去打擊這類頁面那,另外,很多違法站點(diǎn),都用js套站,如果百度識(shí)別不了js,任由這些黑客肆虐,大家認(rèn)為可能么?前幾年就已經(jīng)可以識(shí)別了,現(xiàn)在肯定識(shí)別度更高。
js需要用robots.txt進(jìn)行屏蔽抓取么?
講解一下,js文件需要用robots.txt進(jìn)行屏蔽抓取么?一直有一個(gè)爭(zhēng)議,css和js需要屏蔽么,其實(shí)css不需要屏蔽的,如果屏蔽了,百度快照中的樣式就會(huì)亂掉,或多或少還是有影響的,但是js是有必要屏蔽的,合理的屏蔽js,會(huì)大大優(yōu)化蜘蛛抓取性,比較利于SEO優(yōu)化,下面講解如何屏蔽這類js。
如何有效防止百度對(duì)js的抓???
1,用robots.txt屏蔽全站js,和不想抓取的js!
首先最直接的方法就是用robots.txt直接屏蔽js,屏蔽有兩種方法,第一種是徹底屏蔽,屏蔽整站js,第二種是屏蔽個(gè)別的js,我們以下圖為例,其實(shí)我比較建議屏蔽整站js,因?yàn)閖s實(shí)在對(duì)SEO沒有什么實(shí)際的作用,只會(huì)拖慢網(wǎng)站的速度。
2,用混淆加密工具,把js進(jìn)行加密
雖然用robots.txt會(huì)屏蔽一些蜘蛛抓取,但是還是有一些js還依然會(huì)抓取的,這個(gè)時(shí)候怎么辦那?我們可以用一些加密技術(shù),加密js,增加百度不識(shí)別性,這對(duì)于一些敏感內(nèi)容來說,是比較推薦使用的,比如,js里面都是廣告代碼,被百度抓取了會(huì)對(duì)網(wǎng)站產(chǎn)生不良的影響,所以進(jìn)行混淆加密會(huì)比較好一些,一般混下加密我們都會(huì)使用站長(zhǎng)工具進(jìn)行加密(見下圖)!
3,如果是廣告,可以考慮用框架導(dǎo)入js!
第三點(diǎn),就是一些第三方廣告代碼,如果網(wǎng)站廣告比較多,js中寫的很多,單單使用混淆加密是不能完全解決的,我們可以單獨(dú)建立一個(gè)頁面來放廣告,然后用iframe導(dǎo)入進(jìn)來,百度對(duì)于iframe中的內(nèi)容一般情況下是不會(huì)抓取的,當(dāng)然了,js還是需要進(jìn)行混淆加密的,這樣就可以很大程度的緩解因?yàn)閺V告太多而被百度懲罰的事情發(fā)生。
好了,今天我們就講解這么多吧,我們總結(jié)一下,css和js這兩種,我們需要屏蔽掉js,css不需要進(jìn)行屏蔽,在robots.txt中,可以直接寫入屏蔽全站js,網(wǎng)站js百度是會(huì)抓取的,而且會(huì)進(jìn)行識(shí)別,所以如果網(wǎng)站js中廣告比較多,大家可以用框架導(dǎo)入即可。
文章來源:代代SEO博客
來源地址:https://www.daidaiseo.com/seoti/576.html
申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!