很多SEOer包括小編在內,做網站優化時,經常遇到的一個問題就是:自己辛辛苦苦寫的文章為什么沒有收錄?很多人可能不太明白收錄的重要性,當網站發布的文章收錄以后,才會網站排名,那么你的文章沒有被網站收錄到底是什么原因呢?小編就跟大家分享下最常見的4個原因。
1、Robots.txt文件
Robots.txt文件對于網站優化前期來說是至關重要的,設置的好了可以幫助網站優化排名周期縮短,弄得不好,連網站收錄都會成為問題。例如許多網站上線或是改版以后,會顯示這么一句話“由于該網站的robots.txt文件存在限制指令,系統無法提供該頁面的內容描述”,一般不懂的人會認為搜索引擎抓取除了問題,其實這是因為網站Robots.txt文件屏蔽操作所導致的,在這種情況下,網站不收錄是完全正確的~
另外關于robots.txt文件導致網站沒收錄的原因還有一個,那就是網站上線前期,許多小伙伴認為網站內容還不夠完善,還需要作調整,于是就在robots.txt文件里面寫下禁止所有搜索引擎蜘蛛來抓取,想著等網站完善好了,再更改規則讓搜索引擎蜘蛛來抓取。每個人都是有脾氣的,搜索引擎蜘蛛也是一樣的,你網址能正常打開,一次來你拒之門外,二次三次也還是拒之門外,然后搜索引擎蜘蛛就啟用它的記憶功能了,這家伙給我的第一印象極差,多次上門都不請我進去坐坐,后果可想而知。所以你的網站沒有收錄也是在正常不過了。
2、網站結構
很多SEOer都會存在一個很嚴重的問題就是不會搭建網站。其實80%的SEOer都只會套網站模板,然后對網站進行簡單的修改就算是完成網站搭建了,盡管很多優秀的SEO網站都是這樣過來的,但是失敗的例子也有很多。搜索引擎之所以會收錄這個網站頁面,首先頁面框架是要符合抓取規則的,不然網站全是js(腳本語言)和圖片,搜索引擎很難識別,就算是
網站框架是符合規則的,但是蜘蛛抓取完以后也會經過一套過濾刪除,只有真正符合搜索引擎蜘蛛的頁面才會真正的被收錄。所以這里,還需要SEOer注意的就是不要經常移動網站框架,蜘蛛比較喜歡專一的網站,這樣也會增加蜘蛛對網站的信任度。
3、頁面內容
俗話說搜索引擎以“內容為王”,這句話一點也沒錯,網站內容可以直接影響到網站的優化排名結果。舉個例子,一個網站內基礎優化做的非常出色無可挑剔,但是他的文章內容都是抄襲的,導致的結果就是網站沒有任何頁面被收錄,原因就是搜索引擎經過它的計算發現,你的文章內容全部都是復制而來,重復內容太多,也沒有有價值的東西,我為什么還要收錄你的東西?另一個網站基礎優化做的一般,但是它的網站內容都是高質量的原創內容而且也能滿足用戶的需求,所以搜索引擎就將他發布的所有內容都進行收錄,最終的結果就是網站上幾乎所有的文章都被收錄,并且排名也很不錯!
一句話就是搜索引擎需要有價值的原創內容~所以,我們就努力寫原創內容吧!
4、黑帽技術
之前有個做SEOer的朋友,他在新網站上線前期,收錄都很好,當時還沾沾自喜,前幾天卻突然說網站收錄全都沒有了,再三追問下,才發現他為了網站收錄用了黑帽技術,被懲罰后一直沒有恢復。所以小伙伴們在想要提高收錄時,千萬不要違反搜索引擎制定的規則~只有白帽才是真正的能為大家帶來長期效益的最佳途徑,且行且珍惜喲~