先講一個作弊方法。以下的一個作弊方法,至今還能行得通的。
代碼如下:
<table>
<tr>
<td height=”‘000″ bgcolor=”#000000″ background=”white.jpg”>
<font color=”#FFFFFF”>隱藏文字</font>
</td>
</tr>
</table>
這段代碼,搜索引擎看到的是一個黑色背景下有一些白色的文字,這是不算作弊的。但是用戶看到的就是一片白色,不會看到裏面
的文字。原因就是用一張白色的圖片作爲北京。在以table布局的網頁裏,如果同時定義了一個table的背景顔色和背景圖片,它是
優先顯示圖片顔色的。這樣,用戶看到的是一片白色背景下的白色文字,當然就看不到這些文字了。這種作弊方法利用了一點:就
是搜索引擎至今不能識別一張圖片的顔色。
當然搜索引擎還有很多其他弱點。邁克.摩爾曾經說過:確實有辦法愚弄搜索引擎,但是只有少數人能真正辦到。其實他就是其中
的一個,因爲他自己做了;0年的搜索引擎技術研究,在搜索引擎領域有很多專利,能從頭到尾建立一個搜索引擎。
但是他那樣的專家,是不會用一些作弊的方法來做SEO的,原因就是這樣做太蠢了。
這要從搜索引擎反作弊策略說起。一個搜索引擎成功的反作弊策略一定是這樣的:
‘.允許算法被探測出來,而且即使算法被公布,搜索結果的公正性都不會受太大的影響。要這麽做的原因就是不希望和作弊的人陷
入到一種貓捉老鼠的死循環當中。如果老是以堵漏洞的做法來修正算法,那永遠都沒有盡頭。出于這樣的考慮,搜索引擎會把那些
無法被作弊的因素在排序算法裏放到比較重要的程度。
;.盡可能用一切技術手段自動檢測,當技術手段不能解決問題,就用人工來解決。然後把人工發現的額外難題又反饋給自動檢測機
制,使自動檢測越來越完善。
現在的Google基本呢上就是這樣來做的。在現有的排名規則中,那些無法作弊的和能精確反應內容的因素,都是很重要的排序因素
。
當Google也不排斥頻繁的調整算法,這也有出于給用戶一個最好的搜索體驗考慮的。
至于技術檢測和人工審查,Google也一直在做。
Google很早就有匿名蜘蛛來檢測一個網站是不是在作弊的。如果去分析網站的服務器log日志,就會發現他們。
你會發現,有的爬蟲,通過ip查詢是來自Google,但是它沒有自己的聲明(user-agent),這就是Google的匿名蜘蛛。它會判斷你
有沒有對Google爬蟲特別對待,做一些隱藏頁面,還會解析Javascript文件和css文件等等。有人用css文件來隱藏內容,這種事情
現在是不用去做的,Google都能查出來。
Google也有人工審核機制,從webmaster tool 裏提交的問題,都是有人工跟進審核的。以下就是
既然Google反作弊那麽優秀,那文章一開始提到的那個作弊方案怎麽解決呢?
那個方法Google確實檢測不出來(現在未必),但是用這個方法的人,到最後還是會被Google發現作弊。
Google的反作弊是“善意原則”優先,假設你這個網站是沒有作弊的,但是用其他所有作弊的特征來檢查。用到我提到的這個方法
,在用顔色隱藏內容這塊是沒事了,但是會在堆砌關鍵詞,反向鏈接,以及其他很多方面露出馬腳來。Google就是相信,一個在頁
面上隱藏內容的人,也一定會去做垃圾鏈接群發等等其他作弊的事情,就像現實生活中一個吸毒的人,當然也是愛打架的,或則愛
偷東西的,總有一件事情讓你進局子裏。
而你假設其他什麽都不做,就是用那個方法隱藏一點內容,其實你也不能得到什麽。因爲你僅僅是隱藏內容的話也不會有排名的。
Google就是這樣捍衛了自己排名的公正性。
對于這些了解得越多,就越發現作弊實在是費力不討好。(作弊源于不了解,通過正常途徑提升SEO流量的方法有的是,爲什麽放
棄那麽多好的方法而選擇差的方法呢?在現在的SEO界,你會發現一個現象,越是SEO剛入門的人越喜歡搞一些作弊的事情,而SEO
從業越久的人,就越不會參與這些。)
想做一個優秀SEOer的人,對所有這些因素都要有一定程度的了解。這些做即可以避開無意中犯下的錯,又可以避免不必要的恐慌
。
比如沙盒效應,很多人總覺得很神秘,其實從搜索引擎的角度出發沒什麽好神秘的。你要是站在搜索引擎的角度考慮問題,就覺得
這是一個很有必要的措施了。你也會知道如何發展自己的外部鏈接。避免Google的反作弊手段落到你網站上。
還有,關于重複內容,Google一定是“善意原則”優先的,它甚至會幫你處理掉因爲網站大量采用模板帶來的重複問題。要做到了
解這些,就是不斷的實踐,學習和實驗。
面對Google,我們就像那些心理學家面對人類的心理一樣,很多東西是你不了解的。你去測試,就能得到獨家的資料和信息,