現(xiàn)今,網(wǎng)頁抓取已經(jīng)是一種人所共知的技術(shù)了,然而依然存在著諸多復(fù)雜性, 簡單的網(wǎng)頁爬蟲依然難以勝任Ajax輪訓(xùn)、XMLHttpRequest,WebSockets,F(xiàn)lash Sockets等各種復(fù)雜技術(shù)所開發(fā)出來的現(xiàn)代化網(wǎng)站。
我們以我們在Hubdoc這個項目上的基礎(chǔ)需求為例,在這個項目中,我們從銀行,公共事業(yè)和信用卡公司的網(wǎng)站上抓取帳單金額,到期日期,賬戶號碼,以及最重要的:近期賬單的pdf。對于這個項目,我一開始采用了很簡單的方案(暫時并沒有使用我們正在評估的昂貴的商業(yè)化產(chǎn)品)——我以前在MessageLab/Symantec使用Perl做過的一個簡單的爬蟲項目。但是結(jié)果很不順利,垃圾郵件發(fā)送者所制作的網(wǎng)站要比銀行和公共事業(yè)公司的網(wǎng)站簡單的多得多。
那么如何解決這個問題呢?我們主要從使用Mikea開發(fā)的優(yōu)秀 request庫開始。在瀏覽器中發(fā)出請求,并在Network窗口中查看到底發(fā)送出去了什么請求頭,然后把這些請求頭拷貝到代碼里。這個過程很簡單。僅僅是跟蹤從登陸開始,到下載Pdf文件結(jié)束的這個過程,然后模擬這個過程的所有的請求而已。為了使類似的事情處理起來變得容易,并且能讓網(wǎng)絡(luò)開發(fā)者們更加合理地寫爬蟲程序,我把從HTML上取到結(jié)果的方把導(dǎo)出到j(luò)Query中(使用輕量級 cheerio庫),這使得相似的工作變得簡單,也使利用CSS選擇子選取一個頁面中的元素變得較為簡單。整個過程被包裝進一個框架,而這個框架也可以做額外的工作,例如從數(shù)據(jù)庫中拾取證書,加載個體機器人,和UI通過socket.io溝通。
對于一些web站點來說這個是有效的,但這僅僅是JS腳本,而不是我那個被這些公司放在他們站點上的node.js的code。他們對遺留下來的問題,針對復(fù)雜性就行分層,使得你非常難去弄明白該做什么來得到登錄的信息點。對于一些站點我嘗試了幾天通過與request()庫結(jié)合來獲取,但仍是徒然。
在幾近崩潰后,我發(fā)現(xiàn)了node-phantomjs,這個庫可以讓我從node中控制phantomjs headless webkit瀏覽器(譯者注:這個我沒想到一個對應(yīng)的名詞,headless這里的意思是渲染頁面在后臺完成,無需顯示設(shè)備)。這看起來是一種簡單的解決方案,但是還有一些phantomjs無法回避的問題需要解決:
1.PhantomJS只能告訴你頁面是否完成了加載,但是你無法確定這個過程中是否存在通過JavaScript或者meta標簽實現(xiàn)的重定向(redirect)。特別是JavaScript使用setTimeout()來延遲調(diào)用的時候。
2.PhantomJS為你提供了一個頁面加載開始(pageLoadStarted)的鉤子,允許你處理上面提到的問題,但是這個機能只能在你確定要加載的頁面數(shù),在每個頁面加載完成時減少這個數(shù)字,并且為可能的超時提供處理(因為這種事情并不總是會發(fā)生),這樣當(dāng)你的數(shù)字減少為0,就可以調(diào)用你的回調(diào)函數(shù)了。這種方式可以工作,但是總讓人覺得有點像是黑客手段。
3.PhantomJS每抓取一個頁面需要一個完整獨立的進程,因為如果不這樣,無法分離每個頁面之間的cookies。如果你是用同一個phantomjs進程,已經(jīng)登錄的頁面中的session會被發(fā)送到另一個頁面中。
4.無法使用PhantomJS下載資源 - 你只能將頁面保存為png或者pdf。這很有用,但是這意味著我們需要求助于request()來下載pdf。
5.由于上述的原因,我必須找到一個方法來將cookie從PhantomJS的session中分發(fā)到request()的session庫中去。只需要將document.cookie的字符串分發(fā)過去,解析它,然后將其注入到request()的cookie jar中去。
6.將變量注入到瀏覽器session中并不是件容易的事情。要這么做我需要創(chuàng)建一個字符串來建立一個Javascript函數(shù)。
8.一些網(wǎng)站總是充斥著console.log()之類的代碼,也需要將他們重新定義,輸出到我們希望的位置。為了完成這個,我這么做:
10.我還需要限制瀏覽器session的最大并發(fā)量,從而保障我們不會爆掉服務(wù)器。雖然這么說,可是這個限制要比昂貴的商業(yè)解決方案所能提供的高很多。(譯者注:即商業(yè)解決方案的并發(fā)量比這個解決方案大)
所有的工作結(jié)束后,我就有一個比較體面的 PhantomJS + request 的爬蟲解決方案。必須使用 PhantomJS 登錄后才可以返回去 request() 請求,它將使用在 PhantomJS 中設(shè)置的 Cookie 來驗證登錄的會話。這是一個巨大的勝利,因為我們可以使用 request() 的流來下載 pdf文件。
整個的計劃就是為了讓 Web 開發(fā)者相對容易的理解如何使用 jQuery 和 CSS 選擇器來創(chuàng)建不同 Web 網(wǎng)站的爬蟲,我還沒有成功證明這個思路可行,但相信很快會了。
新聞熱點
疑難解答
圖片精選