現今,眾多SEO公司都提供SERP跟蹤服務,何為SERP,百度百科的定義如下:
“SERP是Search Engine Results Page的首字母縮寫,即搜索引擎結果頁面。是搜索引擎對搜索請求反饋的結果,通常SERP包含搜索結果的左右兩側,而不是單指哪一側。
SERP指搜索引擎(如Google或百度)對關鍵詞查詢的結果頁面。除了不同的搜索引擎,每個搜索引擎對于相同的關鍵詞查詢,可按結果的性質,返回不同的結果頁面,如圖片SERP、視頻SERP、新聞資訊SERP、博客SERP等。SERP上的站點排列順序,根據各個搜索引擎的不同算法計算并賦值。
搜索引擎優(SEO)的主要目的之一是把企業(或組織)站點在SERP上的排名加以提升。”
而對于SERP的跟蹤,無非是通過搜索引擎提供的API或者程序的抓取來實現,一般來說,如果通過API來實現的話,查詢量過多的話,是需要一定費用的,而且有一些前提,一般是購買了搜索引擎提供商的競價服務,并且有一定的門檻。
這樣來說的話,如何免費的獲取SERP跟蹤信息成了大多數
seo外包服務商的研究課題,于是,普遍的方法出來了:使用蜘蛛程序去解析網頁獲取頁面排名結果。
對于頻繁抓取搜索引擎的排名數據,這個毋庸置疑會受到其間歇性的屏蔽,導致抓取的排名數據不準?如何解決?
個人提出以下幾個思路:
1,緩存處理。對于用戶已經查詢過的關鍵詞及網址,存儲到臨時表中,不進行實時查詢。
2,多臺服務器抓取。如果某臺服務器臨時抓取出錯,則換一臺服務器去嘗試抓取結果。
3,跨域的js進行客戶端抓取。即cross-domain-scripting,這個應該有一定的難度,至少還沒有發現有好的現成的解決方案。
4,做成c/s的的客戶端工具,從用戶網絡環境中獲取排名數據,然后由用戶觸發保存到數據庫中。
至于技術上的實現問題,需要不斷的去嘗試及優化獲取結果的性,終的目的是讓客戶平滑的看到SERP的排名信息。關于技術上的深入探討,歡迎繼續關注本人的后續文章。
”