我前面的文章,都是從技術的角度出發來做SEO的。這篇文章就再舉幾個例子,來說明一下做SEO爲什麽要依賴技術分析的。0年以前的阿裏巴巴,那時候稱爲“Google是阿裏巴巴的站內搜索引擎”。阿裏巴巴國際站在國外同行當中的表現要更加優秀。當時很多産品類詞語,排在首頁的’0個結果當中就可能會有個是阿裏巴巴國際站的。
Google網站管理員工具剛出來的時候,我們網站有很多頻道都驗證不了那個Google需要你上傳的文件。工程師那邊幫助查了很多問題,以爲是什麽跳轉之類的沒有做好。查了很多資料,也沒有找到特征吻合的相關解決辦法。而meta驗證的方法因爲技術上有一點問題做不了。
所以我們SEO團隊就幫工程師去找問題。原來問題出在泛解析上。具體的過程是這樣的:
用了泛解析的URL,無論你把URL組合成一個什麽樣子,都會有一個正常的頁面給你的。比如:如果你網站的根目錄下用了泛解析,http://www.xxx.com/a.html 這個url是你網站本來正常的URL。那麽你隨意的輸入一個本來不存在的URL 如:http://www.xxx.com/dadadad.html 甚至 http://www.xxx.com#@#@’;.html,網站CMS返回的都是一個正常的頁面。
這在一個大型網站中,很多地方出于業務需要,都是這麽處理的。但是這樣做,在“網站管理員工具”的驗證方面就一定不能通過,爲什麽呢?
因爲這樣誰都可以把這個網站加到自己的網站管理員工具中。比如:www.made-in-china.com 根目錄如果用了泛解析,我把這個網站添加到我的“網站管理員工具”裏,系統要我驗證一下www.made-in-china.com/google’c0cb0”f.html 這個文件是不是存在的時候,因爲有泛解析這個文件是一定存在的,那麽我就成功把這個不屬于我的網站加到我的“網站管理員”裏了。我可以隨意更改裏面的很多設置。
而實際上這樣的情況是不會發生的,因爲Google不光會驗證你上傳的文件存在不存在,還會驗證一個不應該存在的文件是不是存在。Google驗證完你上傳的文件後,接著會模擬一個叫做Google0errorpage.html 的頁面是不是不存在。Google覺得你網站根目錄下恰好存在一個名叫Google0errorpage.html的幾率是零,所以如果檢測下來發現這個頁面也存在的話,那就不能驗證通過,Google這個時候已經知道你這是因爲泛解析導致的緣故。處于保護你的網站,Google不會讓這個驗證通過。
上面的這個分析過程,在公開的渠道裏是找不到的。現在在《Google網站質量指南》裏也只是讓你給不存在的頁面返回XX狀態碼而已。 www.google.com/support/webmasters/bin/answer.py?hl=cn&answer=
爲什麽SEO工程師一下子就找到了問題出在哪裏呢?那是因爲服務器log日志裏一定會記錄Google驗證的這個過程的,把相關目錄下、某個時間段的log日志調出來查看就可以看到了。
如果沒有log日志分析,誰能想到還有這麽一個過程在裏面呢?至今,還有很多網站驗證不了這個文件的,現在就可以看看有沒有這個泛解析的問題,或者去分析log日志看看。
還有一次,網站改版後,網站流量居然下降了。我們知道影響SEO流量的因素有很多,那到底是什麽原因導致流量下降呢?之前的主管通過自己的分析,覺得是url出了問題。
當時的url是這樣的:http://www.xxx.com/bin/music/mp.html
我想很多人都不會覺得這個url有什麽異常。但是在當時,這個url有一個致命問題的。
在0;年Google的爬蟲還不是很成熟的時候,爲了避免陷入死循環,爬蟲不光會對那些有多余參數的url抓取量減少,還會對某些特定的目錄不抓取的。這樣的目錄中,就有/cgi-bin/以及類似的/bin/這樣的目錄。學過CGI語言的人都摘掉,/cgibin/這個目錄下是放置cgi程序的地方,這種目錄下進行抓取是沒有什麽意義的。/bin/這個目錄也是其他很多系統或者語言默認的文件夾名稱,這些目錄下都不存在Google應該抓取的頁面,所以搜索引擎就屏蔽這樣的目錄抓取。而偏偏我們定義的文件夾名稱就是/bin/,Google是不會抓取這個目錄的。
之後,把這個目錄名稱改爲/trade/,流量馬上就恢複了。如今,百度也在robots文件的用法中,就拿/cgi-bin/這個目錄做了例舉。http://www.baidu.com/search/robots.html
我相信這樣的問題即使放到現在,也沒有人敢懷疑是Google本身除了問題。有些人還會從百個因素裏找一個看似合理的原因,導致真正的原因被掩蓋了。但是通過技術分析並實踐,卻得出讓人信服的結論。
技術分析在和競爭對手搶流量的時候,也是競爭力之一。舉一個不那麽恰當的例子:
sitemap.xml剛出來的時候。我們自己制作好了sitemap.xml文件,但是畢竟這麽大型的sitemap文件誰也沒有做過,特別是裏面權重的設置在一個大型網站來看是很有講究的。所以我們就想參考一個國外主要競爭對手的文件。一開始通過一個方法拿到了他們的文件地址,但是怎麽也打不開那個鏈接,老是返回0錯誤。通過國外的代理服務器去訪問也是這樣。最後,通過模擬Google爬蟲才能正常的訪問這個文件。原來同樣非常重視SEO的這個對手,爲了讓自己的sitemao.xml文件不被其他人看到,只有對那種user-agent是Google爬蟲的訪問才顯示這個文件,由于浏覽器的user-agent是很容易判斷出來的,就攔截掉了浏覽器的訪問。
《怎麽樣去學SEO》一文,講述了學SEO要從了解網站和搜索引擎相關技術開始。而這篇文章就是讓大家看看具體是如何應用的。